SUSE Linux

10.1
07.04.2006

www.novell.com Referenz

Referenz
Autorenliste: Jörg Arndt, Stefan Behlert, Frank Bodammer, James Branam, Volker Buzek, Klara Cihlarova, Stefan Dirsch, Olaf Donjak, Roman Drahtmüller, Thorsten Dubiel, Torsten Duwe, Thomas Fehr, Stefan Fent, Werner Fink, Jakub Friedl, Kurt Garloff, Joachim Gleißner, Carsten Groß, Andreas Grünbacher, Berthold Gunreben, Franz Hassels, Andreas Jaeger, Jana Jaeger, Klaus Kämpf, Andi Kleen, Hubert Mantel, Lars Marowsky-Bree, Chris Mason, Johannes Meixner, Lars Müller, Matthias Nagorni, Anas Nashif, Siegfried Olschner, Edith Parzefall, Peter Pöml, Thomas Renninger, Hannes Reinecke, Scott Rhoades, Thomas Rölz, Heiko Rommel, Tanja Roth, Marcus Schäfer, Thomas Schraitle, Klaus Singvogel, Frank Sundermeyer, Elisabeth Tobiasson, Hendrik Vogelsang, Klaus G. Wagner, Rebecca Walter, Christian Zoz Diese Veröffentlichung ist das geistige Eigentum von Novell, Inc. Ihr Inhalt darf ganz oder teilweise dupliziert werden, sofern jede Kopie einen sichtbaren CopyrightHinweis trägt. Alle Informationen in diesem Buch wurden mit größter Sorgfalt zusammengestellt. Doch auch dadurch kann hundertprozentige Richtigkeit nicht gewährleistet werden. Weder SUSE LINUX GmbH noch die Autoren noch die Übersetzer können für mögliche Fehler und deren Folgen haftbar gemacht werden. Novell, das Novell-Logo, das N-Logo und SUSE sind eingetragene Marken von Novell, Inc., in den Vereinigten Staaten und anderen Ländern. * Linux ist eine eingetragene Marke von Linus Torvalds. Alle anderen Drittanbieter-Marken sind das Eigentum der jeweiligen Inhaber. Vorschläge und Kommentare richten Sie bitte an documentation@suse.de.

Inhaltsverzeichnis

Über dieses Handbuch Teil I Fortgeschrittene Installationsszenarien 1 Installation mit entferntem Zugriff
1.1 1.2 1.3 1.4 1.5 Installation auf entfernten Systemen . . . . . . Installationsquellen auf dem Server einrichten . . Vorbereitung des Bootvorgangs für das Zielsystem Booten des Zielsystems für die Installation . . . Überwachen des Installationsvorgangs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

xi 15 17
17 27 38 48 53

2 Fortgeschrittene Festplattenkonfiguration
2.1 2.2 LVM-Konfiguration . . . . . . . . . . . . . . . . . . . . . . . . Soft-RAID-Konfiguration . . . . . . . . . . . . . . . . . . . . . .

57
57 65

3 Aktualisieren des Systems und Paketverwaltung
3.1 3.2 3.3 Aktualisieren von SUSE Linux . . . . . . . . . . . . . . . . . . . . Software-Änderungen von Version zu Version . . . . . . . . . . . . . RPM - der Paket-Manager . . . . . . . . . . . . . . . . . . . . .

71
71 74 94

Teil II Administration 4 Sicherheit in Linux
4.1 4.2 Masquerading und Firewalls . . . . . . . . . . . . . . . . . . . . SSH: Sicherer Netzwerkbetrieb . . . . . . . . . . . . . . . . . . .

107 109
109 121

4.3 4.4 4.5

Verschlüsseln von Partitionen und Dateien . . . . . . . . . . . . . . Einschränken von Berechtigungen mit AppArmor . . . . . . . . . . . Sicherheit und Vertraulichkeit . . . . . . . . . . . . . . . . . . .

127 131 140

5 Zugriffskontrolllisten unter Linux
5.1 5.2 5.3 5.4 5.5 5.6 Traditionelle Dateiberechtigungen . Vorteile von ACLs . . . . . . . . Definitionen . . . . . . . . . . . Arbeiten mit ACLs . . . . . . . . ACL-Unterstützung in Anwendungen Weitere Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

155
155 157 158 158 167 168

6 Dienstprogramme zur Systemüberwachung
6.1 6.2 6.3 6.4 6.5 6.6 6.7 6.8 6.9 6.10 6.11 6.12 6.13 6.14 6.15 6.16 6.17 6.18 6.19 6.20 Liste der geöffneten Dateien: lsof . . . . . . . . . . . . . . Liste der Benutzer bzw. Prozesse, die auf Dateien zugreifen: fuser Dateieigenschaften: stat . . . . . . . . . . . . . . . . . . USB-Geräte: lsusb . . . . . . . . . . . . . . . . . . . . Informationen zu einem SCSI-Gerät: scsiinfo . . . . . . . . Prozesse: top . . . . . . . . . . . . . . . . . . . . . . . Prozessliste: ps . . . . . . . . . . . . . . . . . . . . . . Prozessbaum: pstree . . . . . . . . . . . . . . . . . . . Wer macht was: w . . . . . . . . . . . . . . . . . . . . . Speichernutzung: free . . . . . . . . . . . . . . . . . . . Kernel Ring Buffer: dmesg . . . . . . . . . . . . . . . . . Dateisysteme und ihre Nutzung: mount, df und du . . . . . . Das Dateisystem /proc . . . . . . . . . . . . . . . . . . . PCI-Ressourcen: lspci . . . . . . . . . . . . . . . . . . . Systemaufrufe eines aktiven Programms: strace . . . . . . . . Bibliotheksaufrufe eines aktiven Programms: ltrace . . . . . . Erforderliche Bibliothek angeben: ldd . . . . . . . . . . . . Zusätzliche Informationen zu ELF-Binärdateien . . . . . . . . . Prozessübergreifende Kommunikation: ipcs . . . . . . . . . . Zeitmessung mit time . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

169
170 171 171 172 172 173 174 176 176 177 177 178 178 182 183 184 184 185 186 186

Teil III System 7 32-Bit- und 64-Bit-Anwendungen in einer 64-Bit-Systemumgebung
7.1 7.2 7.3 7.4 Laufzeitunterstützung . . . . . . . . . . . . . . . . Software-Entwicklung . . . . . . . . . . . . . . . . Software-Kompilierung auf Doppelarchitektur-Plattformen Kernel-Spezifikationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

187 189
189 190 191 192

8 Booten und Konfigurieren eines Linux-Systems
8.1 8.2 8.3 Der Linux-Bootvorgang . . . . . . . . . . . . . . . . . . . . . . Der init-Vorgang . . . . . . . . . . . . . . . . . . . . . . . . . Systemkonfiguration über /etc/sysconfig . . . . . . . . . . . . . .

193
193 197 207

9 Der Bootloader
9.1 9.2 9.3 9.4 9.5 9.6 9.7 9.8 Auswählen eines Bootloaders . . . . Booten mit GRUB . . . . . . . . . Konfigurieren des Bootloaders mit YaST Deinstallieren des Linux-Bootloaders . Erstellen von Boot-CDs . . . . . . . Der grafische SUSE-Bildschirm . . . . Fehlerbehebung . . . . . . . . . . Weitere Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

211
212 212 222 228 228 229 230 232

1 0 Spezielle Funktionen von SUSE Linux
10.1 10.2 10.3 10.4 Informationen zu speziellen Software-Paketen Virtuelle Konsolen . . . . . . . . . . . . Tastaturzuordnung . . . . . . . . . . . . Sprach- und länderspezifische Einstellungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

233
233 240 241 242

1 1 Druckerbetrieb
11.1 11.2 11.3 11.4 11.5 11.6 11.7 Workflow des Drucksystems . . . . . . . . . . . . . Methoden und Protokolle zum Anschließen von Druckern Installieren der Software . . . . . . . . . . . . . . Konfigurieren des Druckers . . . . . . . . . . . . . Konfiguration für Anwendungen . . . . . . . . . . . Sonderfunktionen in SUSE Linux . . . . . . . . . . . Fehlerbehebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

247
249 249 250 251 257 258 264

1 2 Gerätemanagement über dynamischen Kernel mithilfe von udev
12.1 12.2 12.3 12.4 12.5 12.6 12.7 12.8 12.9 Das /dev-Verzeichnis . . . . . . . . . . . . . . . Kernel-uevents und udev . . . . . . . . . . . . . . Treiber, Kernel-Module und Geräte . . . . . . . . . . Booten und erstes Einrichten des Geräts . . . . . . . . Fehlersuche bei udev-Ereignissen . . . . . . . . . . . Ereignisse für die Kernelgeräte mit udev-Regeln steuern . Permanente Gerätebenennung . . . . . . . . . . . . Das ersetzte hotplug-Paket . . . . . . . . . . . . . Weitere Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

273
273 274 274 275 276 277 277 278 279

1 3 Dateisysteme in Linux
13.1 13.2 13.3 13.4 13.5 Terminologie . . . . . . . . . Wichtige Dateisysteme in Linux . Weitere unterstützte Dateisysteme Large File Support unter Linux . . Weitere Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

281
281 282 289 290 291

1 4 Das X Window-System
14.1 14.2 14.3 14.4 X11-Konfiguration mit SaX2 . . . . . . . Optimierung der X-Konfiguration . . . . . Installation und Konfiguration von Schriften OpenGL – 3D-Konfiguration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

293
293 295 301 307

1 5 FreeNX: Fernsteuerung eines anderen Computers
15.1 15.2 15.3 15.4 Erste Schritte in NX . . . . . Erweiterte FreeNX-Konfiguration Fehlerbehebung . . . . . . . Weitere Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

311
311 314 321 324

1 6 Authentifizierung mit PAM
16.1 16.2 16.3 16.4 Struktur einer PAM-Konfigurationsdatei PAM-Konfiguration von sshd . . . . . Konfiguration von PAM-Modulen . . . Weitere Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

325
326 328 330 333

1 7 Virtualisierung mit Xen
17.1 17.2 17.3 17.4 17.5 Installation von Xen . . . . . . . . . . . . Domäneninstallation . . . . . . . . . . . . Starten und Steuern von Xen-Domänen mit xm . Fehlerbehebung . . . . . . . . . . . . . . Weitere Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

335
337 337 338 339 340

Teil IV Dienste 1 8 Grundlegendes zu Netzwerken
18.1 18.2 18.3 18.4 IP-Adressen und Routing . . . . . . . . . . . IPv6 – Das Internet der nächsten Generation . . . Namensauflösung . . . . . . . . . . . . . . Konfigurieren von Netzwerkverbindungen mit YaST . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

343 345
348 351 361 363

18.5 18.6 18.7

Verwalten der Netzwerkverbindungen mit NetworkManager . . . . . . Manuelle Netzwerkkonfiguration . . . . . . . . . . . . . . . . . . smpppd als Einwählhelfer . . . . . . . . . . . . . . . . . . . . .

375 378 391

1 9 SLP-Dienste im Netzwerk
19.1 19.2 19.3 19.4 Registrieren eigener Dienste SLP-Frontends in SUSE Linux SLP aktivieren . . . . . . Weitere Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

395
395 396 397 398

2 0 Das Domain Name System (DNS)
20.1 20.2 20.3 20.4 20.5 20.6 20.7 20.8 20.9 DNS-Terminologie . . . . . . . . . . . Konfiguration mit YaST . . . . . . . . . Starten des Namenservers BIND . . . . . Die Konfigurationsdatei /etc/dhcpd.conf . Zonendateien . . . . . . . . . . . . . Dynamische Aktualisierung von Zonendaten Sichere Transaktionen . . . . . . . . . DNS-Sicherheit . . . . . . . . . . . . Weitere Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

399
399 400 408 410 415 420 420 422 422

2 1 Arbeiten mit NIS
21.1 21.2 Konfigurieren von NIS-Servern . . . . . . . . . . . . . . . . . . . Konfigurieren von NIS-Clients . . . . . . . . . . . . . . . . . . .

423
423 430

2 2 Verteilte Nutzung von Dateisystemen mit NFS
22.1 22.2 22.3 22.4 22.5 Importieren von Dateisystemen mit YaST Manuelles Importieren von Dateisystemen Exportieren von Dateisystemen mit YaST . Manuelles Exportieren von Dateisystemen Weitere Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

433
433 434 435 436 438

2 3 DHCP
23.1 23.2 23.3 23.4 Konfigurieren eines DHCP-Servers mit YaST DHCP-Softwarepakete . . . . . . . . . Der DHCP-Server dhcpd . . . . . . . . Weitere Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

439
440 444 444 449

2 4 Zeitsynchronisierung mit NTP
24.1 24.2 24.3 Konfigurieren eines NTP-Client mit YaST . . . . . . . . . . . . . . . Konfigurieren von xntp im Netzwerk . . . . . . . . . . . . . . . . Einrichten einer lokalen Referenzuhr . . . . . . . . . . . . . . . .

451
451 455 456

2 5 LDAP – Ein Verzeichnisdienst
25.1 25.2 25.3 25.4 25.5 25.6 25.7 LDAP und NIS . . . . . . . . . . . . . . . . Struktur eines LDAP-Verzeichnisbaums . . . . . Serverkonfiguration mit slapd.conf . . . . . . . Datenbehandlung im LDAP-Verzeichnis . . . . . YaST LDAP-Client . . . . . . . . . . . . . . Konfigurieren von LDAP-Benutzern und -Gruppen Weitere Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

457
459 460 464 469 473 482 483

2 6 Der HTTP-Server Apache
26.1 26.2 26.3 26.4 26.5 26.6 26.7 26.8 26.9 Schnellstart . . . . . . . . . . . . . . . . . . . Konfigurieren von Apache . . . . . . . . . . . . . Starten und Beenden von Apache . . . . . . . . . Installieren, Aktivieren und Konfigurieren von Modulen Aktivieren von CGI-Skripts . . . . . . . . . . . . . Einrichten eines sicheren Webservers mit SSL . . . . . Vermeiden von Sicherheitsproblemen . . . . . . . . Fehlerbehebung . . . . . . . . . . . . . . . . . Weitere Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

485
485 487 503 505 514 517 524 526 527

2 7 Dateisynchronisierung
27.1 27.2 27.3 27.4 27.5 27.6 27.7 Verfügbare Software zur Datensynchronisierung Kriterien für die Auswahl eines Programms . . Einführung in Unison . . . . . . . . . . . . Einführung in CVS . . . . . . . . . . . . . Einführung in Subversion . . . . . . . . . . Einführung in rsync . . . . . . . . . . . . . Einführung in mailsync . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

531
531 535 539 541 544 547 549

2 8 Samba
28.1 28.2 28.3 28.4 28.5 28.6 Terminologie . . . . . . . . . Starten und Stoppen von Samba . Konfigurieren eines Samba-Servers Konfigurieren der Clients . . . . Samba als Anmeldeserver . . . . Weitere Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

553
553 555 555 561 562 563

2 9 Der Proxyserver Squid
29.1 29.2 29.3 29.4 29.5 29.6 29.7 29.8 29.9 Einige Tatsachen zu Proxy-Caches . . . . . . Systemvoraussetzungen . . . . . . . . . . Starten von Squid . . . . . . . . . . . . Die Konfigurationsdatei /etc/squid/squid.conf Konfigurieren eines transparenten Proxy . . cachemgr.cgi . . . . . . . . . . . . . . squidGuard . . . . . . . . . . . . . . . Erstellung von Cache-Berichten mit Calamaris Weitere Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

565
566 568 570 572 578 581 583 585 586

Teil V Mobilität 3 0 Mobile Computernutzung mit Linux
30.1 30.2 30.3 30.4 Notebooks . . . . . . Mobile Hardware . . . Mobiltelefone und PDAs Weitere Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

587 589
589 597 598 599

3 1 PCMCIA
31.1 31.2 31.3 Steuern der PCMCIA-Karten mithilfe von pccardctl . . . . . . . . . . PCMCIA im Detail . . . . . . . . . . . . . . . . . . . . . . . . Fehlerbehebung . . . . . . . . . . . . . . . . . . . . . . . . .

601
602 602 606

3 2 Verwaltung der Systemkonfigurationsprofile
32.1 32.2 32.3 32.4 32.5 32.6 Terminologie . . . . . . . Einrichten von SCPM . . . . Konfigurieren von SCPM über Konfigurieren von SCPM über Fehlerbehebung . . . . . . Weitere Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . eine grafische Benutzeroberfläche die Befehlszeile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

611
612 613 614 621 624 625

3 3 Energieverwaltung
33.1 33.2 33.3 33.4 33.5 33.6 Energiesparfunktionen . . . . . APM . . . . . . . . . . . . . ACPI . . . . . . . . . . . . . Ruhezustand für Festplatte . . . Das powersave-Paket . . . . . . Das YaST Energieverwaltungsmodul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

627
628 629 631 639 640 650

3 4 Drahtlose Kommunikation
34.1 34.2 34.3 Wireless LAN . . . . . . . . . . . . . . . . . . . . . . . . . . Bluetooth . . . . . . . . . . . . . . . . . . . . . . . . . . . . Infrarot-Datenübertragung . . . . . . . . . . . . . . . . . . . .

655
655 668 680

Index

685

Über dieses Handbuch
Dieses Handbuch vermittelt Ihnen Hintergrundinformationen zur Funktionsweise von SUSE Linux. Es richtet sich in der Hauptsache an Systemadministratoren und andere Benutzer mit Grundkenntnissen der Systemadministration. Dieses Handbuch beschreibt eine Auswahl an Anwendungen, die für die tägliche Arbeit erforderlich sind, und bietet eine ausführliche Beschreibung erweiterter Installations- und Konfigurationsszenarien. Fortgeschrittene Installationsszenarien Implementieren von SUSE Linux in komplexen Umgebungen. Administration Hier lernen Sie, wie Sie Ihr SUSE Linux-System sicher machen und den Zugriff auf das Dateisystem steuern können. Außerdem lernen Sie einige wichtige Dienstprogramme für Linux-Administratoren kennen. System Hier werden die Komponenten des Linux-Systems erläutert, sodass Sie deren Interaktion besser verstehen. Dienste In diesem Abschnitt erfahren Sie, wie Sie die unterschiedlichen Netzwerk- und Dateidienste konfigurieren, die zum Lieferumfang von SUSE Linux gehören. Mobilität Dieser Abschnitt enthält eine Einführung in die mobile Computernutzung mit SUSE Linux. Außerdem erfahren Sie, wie Sie die zahlreichen Optionen für die drahtlose Computernutzung, die Energieverwaltung und die Profilverwaltung konfigurieren.

1 Feedback
Wir würden uns über Ihre Kommentare und Vorschläge zu diesem Handbuch und anderen zu diesem Produkt gehörenden Dokumentationen freuen. Bitte verwenden Sie die Funktion user comments unten auf den einzelnen Seiten der Online-Dokumentation, um Ihre Kommentare einzugeben.

2 Zusätzliche Dokumentation
Weitere Handbücher zu diesem SUSE Linux-Produkt finden Sie online unter http:// www.novell.com/documentation/ oder auf Ihrem installierten System im Verzeichnis /usr/share/doc/manual/: SUSE Linux Start Dieses Handbuch erläutert die Installation von SUSE Linux sowie die grundlegenden Schritte in Ihrer neuen Desktop-Umgebung. Eine Online-Version dieses Dokuments finden Sie unter http://www.novell.com/documentation/suse101/ SUSE Linux Anwendungen Dieses Handbuch vermittelt Ihnen einen Überblick über die wichtigsten Programme von SUSE Linux. Eine Online-Version dieses Dokuments finden Sie unter http://www.novell.com/documentation/suse101/. Novell AppArmor 2.0-Administrationshandbuch Dieses Handbuch enthält ausführliche Informationen zur Verwendung von AppArmor in Ihrer Umgebung. Eine Online-Version dieses Dokuments finden Sie unter http://www.novell.com/documentation/apparmor/.

3 Konventionen in der Dokumentation
In diesem Handbuch werden folgende typografische Konventionen verwendet: • /etc/passwd: Datei- und Verzeichnisnamen • Platzhalter: Ersetzen Sie Platzhalter durch den tatsächlichen Wert. • PATH: die Umgebungsvariable PATH • ls, --help: Befehle, Optionen und Parameter • user: Benutzer oder Gruppen

xii

Referenz

Alt , Alt + F1 : Eine Taste oder Tastenkombination; Tastennamen werden wie auf der Tastatur in Großbuchstaben dargestellt

• Datei, Datei → Speichern unter: Menüelemente, Schaltflächen • Tanzende Pinguine (Kapitel „Pinguine“, ↑Verweis): Dies ist ein Verweis auf ein Kapitel in einem anderen Buch.

4 Informationen zur Herstellung dieses Handbuchs
Dieses Handbuch wurde in Novdoc, einer Untermenge von DocBook (siehe http:// www.docbook.org), geschrieben. Die XML-Quelldateien wurden mit xmllint überprüft, von xsltproc verarbeitet und mit einer benutzerdefinierten Version der Stylesheets von Norman Walsh in HTML konvertiert.

5 Danksagung
Die Entwickler von Linux treiben in weltweiter Zusammenarbeit mit hohem freiwilligem Einsatz die Weiterentwicklung von Linux voran. Wir danken ihnen für ihr Engagement – ohne sie gäbe es diese Distribution nicht. Bedanken wollen wir uns außerdem auch bei Frank Zappa und Pawar. Unser besonderer Dank geht selbstverständlich an Linus Torvalds. Viel Spaß! Ihr SUSE-Team

Über dieses Handbuch

xiii

.

Teil I. Fortgeschrittene Installationsszenarien .

.

SUSE Linux zu installieren.1 Installation auf entfernten Systemen In diesem Abschnitt werden die gängigsten Installationsszenarien für Installationen auf entferneten Systemen beschrieben. z. Anschließend werden alle in diesen Installationsszenarien verwendeten Techniken ausführlicher erläutert. Der Begriff Installationsquelle wird für alle Quellen der Installationsdaten verwendet. können Sie aus mehreren netzwerkbasierten Ansätzen auswählen oder eine vollautomatische Installation von SUSE Linux ausführen. die die Installationsdaten im Netzwerk verteilen. Falls Sie Installation mit entferntem Zugriff 17 . ANMERKUNG In den folgenden Abschnitten wird das System.Installation mit entferntem Zugriff Es gibt mehrere Möglichkeiten. 1 1. Die einzelnen Methoden werden mithilfe zweier kurzer Checklisten erläutert: in der einen Liste sind die Voraussetzungen für die jeweilige Methode aufgeführt und in der anderen Liste wird das grundlegende Verfahren beschrieben. sowie Netzwerkserver. CD und DVD. als Zielsystem oder Installationsziel bezeichnet. B. die in Kapitel Installation mit YaST (↑Start) beschrieben wird. auf dem die neue SUSE LinuxInstallation ausgeführt wird. Dazu gehören physische Medien. Abgesehen von der normalen Installation von CD oder DVD. Prüfen Sie für jedes Szenario die Liste der Voraussetzungen und befolgen Sie das für dieses Szenario beschriebene Verfahren.

die dem Zielsystem zugewiesen wird 18 Referenz .für einen bestimmten Schritt ausführliche Anweisungen benötigen. FTP oder SMB mit funktionierender Netzwerkverbindung • Zielsystem mit funktionierender Netzwerkverbindung • Steuersystem mit funktionierender Netzwerkverbindung und VNC-Viewer-Software oder Java-fähiger Browser (Firefox. Konqueror. 1. „X11-Konfiguration mit SaX2“ (S. geben Sie telinit 3 ein und starten Sie SaX2. Die Installation selbst wird vollständig von einer entfernten Arbeitsstation gesteuert. HTTP.1 Einfache Installation mit entferntem Zugriff über VNC . dass die folgenden Anforderungen erfüllt sind: • Quelle der Installation mit entferntem Zugriff: NFS. die mit dem Installationsprogramm über VNC verbunden ist.1. Melden Sie sich nach Abschluss der Installation beim Zielsystem als root an. Stellen Sie bei dieser Art der Installation sicher. 293) beschrieben zu konfigurieren.Statische Netzwerkkonfiguration Diese Art der Installation erfordert physischen Zugriff auf das Zielsystem. folgen Sie den entsprechenden Links. die der Installationsquelle und dem Steuersystem bereits zugewiesen sind • Gültige statische IP-Adresse. Internet Explorer oder Opera) • Physisches Bootmedium (CD oder DVD) zum Booten des Zielsystems • Gültige statische IP-Adressen. WICHTIG Die Konfiguration des X Window Systems ist nicht Teil des entfernten Installationsvorgangs. Das Eingreifen des Benutzers ist wie bei der manuellen Installation erforderlich (siehe Kapitel Installation mit YaST (↑Start)).1. um die Grafikhardware wie in Abschnitt 14. um dieses für die Installation zu booten.

2. Um die Installation abzuschließen. 27) beschrieben ein.2 Einfache Installation mit entferntem Zugriff über VNC . „Installationsquellen auf dem Server einrichten“ (S. VNC-Installationen geben sich selbst über OpenSLP bekannt und können mithilfe von Konqueror im Modus service:// oder slp:// ermittelt werden. „VNC-Installation“ (S. „Booten des Zielsystems für die Installation“ (S. 48) beschrieben.Dynamische Netzwerkkonfiguration über DHCP Diese Art der Installation erfordert physischen Zugriff auf das Zielsystem. 5 Führen Sie die Installation wie in Kapitel Installation mit YaST (↑Start) beschrieben aus. um dieses für die Installation zu booten. die Installation mit entferntem Zugriff 19 .Gehen Sie wie folgt vor. nachdem dieses neu gebootet wurde. legen Sie mithilfe der Eingabeaufforderung für die Boot-Optionen die entsprechenden VNC-Optionen und die Adresse der Installationsquelle fest.1. 53) beschrieben eine Verbindung zum Zielsystem her. Das Zielsystem bootet in eine textbasierte Umgebung und gibt die Netzwerkadresse und Display-Nummer an. unter der die grafische Installationsumgebung über eine VNC-Viewer-Anwendung oder einen Browser erreichbar ist. 1. Dies wird ausführlich in Abschnitt 1.5. Die Netzwerkkonfiguration erfolgt über DHCP.1. 2 Booten Sie das Zielsystem mithilfe der ersten CD oder DVD des SUSE LinuxMedienkits. Die Installation selbst wird vollständig über eine entfernte Arbeitsstation ausgeführt. müssen Sie die Verbindung zum Zielsystem wiederherstellen. um diese Art der Installation durchzuführen: 1 Richten Sie die Installationsquelle wie in Abschnitt 1. 3 Wenn der Bootbildschirm des Zielsystems erscheint. 4 Öffnen Sie auf der steuernden Arbeitsstation eine VNC-Viewer-Anwendung oder einen Webbrowser und stellen Sie wie in Abschnitt 1. 6 Schließen Sie die Installation ab.4.

FTP oder SMB mit funktionierender Netzwerkverbindung • Zielsystem mit funktionierender Netzwerkverbindung • Steuersystem mit funktionierender Netzwerkverbindung und VNC-Viewer-Software oder Java-fähiger Browser (Firefox. 27) beschrieben ein. 2 Booten Sie das Zielsystem mithilfe der ersten CD oder DVD des SUSE LinuxMedienkits. Weitere Informationen zu SMB-Installationsquellen finden Sie in Abschnitt 1. um diese Art der Installation durchzuführen: 1 Richten Sie die Installationsquelle wie in Abschnitt 1.5. Das Zielsystem bootet in eine textbasierte Umgebung und gibt die Netzwerkadresse und Display-Nummer an. Dies wird ausführlich in Abschnitt 1. VNC-Installationen geben sich selbst über OpenSLP bekannt und können mithilfe von Konqueror im Modus service:// oder slp:// ermittelt werden. HTTP. unter der die grafische Installationsumgebung über eine VNC-Viewer-Anwendung oder einen Browser erreichbar ist. dass die folgenden Anforderungen erfüllt sind: • Quelle der Installation mit entferntem Zugriff: NFS.4. der IP-Adressen zur Verfügung stellt Gehen Sie wie folgt vor. Für die eigentliche Konfiguration ist jedoch das Eingreifen des Benutzers erforderlich.2. „Installationsquellen auf dem Server einrichten“ (S. DVD oder benutzerdefinierte Bootdiskette) zum Booten des Zielsystems • Laufender DHCP-Server. Wählen Sie einen NFS-. Internet Explorer oder Opera) • Physisches Bootmedium (CD. 36).2. Konqueror. 20 Referenz . Stellen Sie bei dieser Art der Installation sicher.über VNC mit dem Installationsprogramm verbunden ist. „Booten des Zielsystems für die Installation“ (S. „Verwalten einer SMB-Installationsquelle“ (S. legen Sie mithilfe der Eingabeaufforderung für die Boot-Optionen die entsprechenden VNC-Optionen und die Adresse der Installationsquelle fest. 48) beschrieben. HTTPoder FTP-Netzwerkserver. 3 Wenn der Bootbildschirm des Zielsystems erscheint.

Dieser Ansatz ist für standortübergreifende Implementierungen geeignet. Der Zielcomputer wird über den entfernten Zugriff gestartet und gebootet.5.3 Installation auf entfernten Systemen über VNC . dass die folgenden Anforderungen erfüllt sind: • Quelle der Installation mit entferntem Zugriff: NFS. nachdem dieses neu gebootet wurde. 6 Schließen Sie die Installation ab. 1. Konqueror. Um die Installation abzuschließen. Das Eingreifen des Benutzers ist lediglich für die eigentliche Installation erforderlich. das PXE-Boot-. 53) beschrieben eine Verbindung zum Zielsystem her.PXE-Boot und Wake-on-LAN Diese Art der Installation wird vollständig automatisch durchgeführt.1. FTP oder SMB mit funktionierender Netzwerkverbindung • TFTP-Server • Laufender DHCP-Server für Ihr Netzwerk • Zielsystem. Internet Explorer oder Opera) Installation mit entferntem Zugriff 21 . „VNC-Installation“ (S. 5 Führen Sie die Installation wie in Kapitel Installation mit YaST (↑Start) beschrieben aus. müssen Sie die Verbindung zum Zielsystem wiederherstellen. Stellen Sie bei dieser Art der Installation sicher.1. Netzwerk. HTTP. angeschlossen und mit dem Netzwerk verbunden ist • Steuersystem mit funktionierender Netzwerkverbindung und VNC-Viewer-Software oder Java-fähiger Browser (Firefox.und Wake-on-LAN-fähig.4 Öffnen Sie auf der steuernden Arbeitsstation eine VNC-Viewer-Anwendung oder einen Webbrowser und stellen Sie wie in Abschnitt 1.

53) beschrieben eine Verbindung zum Zielsystem her. Dies wird ausführlich in Abschnitt 1. um diese Art der Installation auszuführen: 1 Richten Sie die Installationsquelle wie in Abschnitt 1. müssen Sie die Verbindung zum Zielsystem wiederherstellen. „Wake-on-LAN“ (S.2. 7 Führen Sie die Installation wie in Kapitel Installation mit YaST (↑Start) beschrieben aus. Dies wird ausführlich in Abschnitt 1. 46) beschrieben. 22 Referenz . HTTPoder FTP-Netzwerkserver aus oder konfigurieren Sie eine SMB-Installationsquelle wie in Abschnitt 1. 4 Bereiten Sie das Zielsystem für PXE-Boot vor. 39) beschrieben.5. 8 Schließen Sie die Installation ab. Wählen Sie einen NFS-. „Einrichten eines TFTP-Servers“ (S.5. 27) beschrieben ein.1.Gehen Sie wie folgt vor. „Verwalten einer SMB-Installationsquelle“ (S. 2 Richten Sie einen TFTP-Server ein. „Installationsquellen auf dem Server einrichten“ (S.3. 38) beschrieben. Dies wird ausführlich in Abschnitt 1. „Einrichten eines DHCP-Servers“ (S. Dies wird ausführlich in Abschnitt 1. „VNC-Installation“ (S.3. der IP-Adressen für alle Computer bereitstellt und dem Zielsystem den Speicherort des TFTP-Servers bekannt gibt.3. 5 Initiieren Sie den Bootvorgang des Zielsystems mithilfe von Wake-on-LAN. 3 Richten Sie einen DHCP-Server ein. 6 Öffnen Sie auf der steuernden Arbeitsstation eine VNC-Viewer-Anwendung oder einen Webbrowser und stellen Sie wie in Abschnitt 1.3. auf dem das Bootimage gespeichert wird.2.1. nachdem dieses neu gebootet wurde.5. „Vorbereiten des Zielsystems für PXE-Boot“ (S. 47) beschrieben. das vom Zielsystem abgerufen werden kann.7.2. Um die Installation abzuschließen. 36) beschrieben.

FTP oder SMB mit funktionierender Netzwerkverbindung • Zielsystem mit funktionierender Netzwerkverbindung • Steuersystem mit funktionierender Netzwerkverbindung und funktionierender SSHClient-Software • Physisches Bootmedium (CD. dass die folgenden Anforderungen erfüllt sind: • Quelle der Installation mit entferntem Zugriff: NFS.2. die mit dem Installationsprogramm über SSH verbunden ist. die dem Zielsystem zugewiesen wird Gehen Sie wie folgt vor. Stellen Sie bei dieser Art der Installation sicher. 27) beschrieben ein.1.4 Einfache Installation mit entferntem Zugriff über SSH . um dieses für die Installation zu booten und um die IP-Adresse des Installationsziels zu ermitteln. HTTP.1. um diese Art der Installation durchzuführen: 1 Richten Sie die Installationsquelle wie in Abschnitt 1. DVD oder benutzerdefinierte Bootdiskette) zum Booten des Zielsystems • Gültige statische IP-Adressen. Installation mit entferntem Zugriff 23 . Die Installation selbst wird vollständig von einer entfernten Arbeitsstation gesteuert.Statische Netzwerkkonfiguration Diese Art der Installation erfordert physischen Zugriff auf das Zielsystem. „Installationsquellen auf dem Server einrichten“ (S. Das Eingreifen des Benutzers ist wie bei der regulären Installation erforderlich (siehe Kapitel Installation mit YaST (↑Start)). die der Installationsquelle und dem Steuersystem bereits zugewiesen sind • Gültige statische IP-Adresse. 2 Booten Sie das Zielsystem mithilfe der ersten CD oder DVD des SUSE LinuxMedienkits.

Um die Installation abzuschließen. Das Zielsystem bootet in eine textbasierte Umgebung und gibt die Netzwerkadresse an. Stellen Sie bei dieser Art der Installation sicher. 5 Führen Sie die Installation wie in Kapitel Installation mit YaST (↑Start) beschrieben aus.Dynamische Netzwerkkonfiguration über DHCP Diese Art der Installation erfordert physischen Zugriff auf das Zielsystem. 50) beschrieben. Dies wird ausführlich in Abschnitt 1.1. FTP oder SMB mit funktionierender Netzwerkverbindung 24 Referenz . 1. nachdem dieses neu gebootet wurde. 55) beschrieben eine Verbindung zum Zielsystem her. 6 Schließen Sie die Installation ab. HTTP. unter der die grafische Installationsumgebung von einen beliebigen SSHClient adressiert werden kann. um dieses für die Installation zu booten und um die IP-Adresse des Installationsziels zu ermitteln. 4 Öffnen Sie auf der steuernden Arbeitsstation ein Terminalfenster und stellen Sie wie in „Herstellen der Verbindung mit dem Installationsprogramm“ (S. die über VNC mit dem Installationsprogramm verbunden ist. Die Installation selbst wird vollständig über eine entfernte Arbeitsstation ausgeführt.3 Wenn der Bootbildschirm des Zielsystems erscheint. „Benutzerdefinierte Boot-Optionen“ (S. dass die folgenden Anforderungen erfüllt sind: • Quelle der Installation mit entferntem Zugriff: NFS. müssen Sie die Verbindung zum Zielsystem wiederherstellen. Für die eigentliche Konfiguration ist jedoch das Eingreifen des Benutzers erforderlich.3.4. die Adresse der Installationsquelle und die SSH-Aktivierung fest.5 Einfache Installation auf entfernten Systemen über SSH . legen Sie mithilfe der Eingabeaufforderung für die Boot-Optionen die entsprechenden Parameter für die Netzwerkverbindung.

• Zielsystem mit funktionierender Netzwerkverbindung • Steuersystem mit funktionierender Netzwerkverbindung und funktionierender SSHClient-Software • Physisches Bootmedium (CD oder DVD) zum Booten des Zielsystems • Laufender DHCP-Server. Wählen Sie einen NFS-. „Verwalten einer SMB-Installationsquelle“ (S.2. 3 Wenn der Bootbildschirm des Zielsystems erscheint. 27) beschrieben ein. „Benutzerdefinierte Boot-Optionen“ (S. der IP-Adressen zur Verfügung stellt Gehen Sie wie folgt vor. 55) beschrieben eine Verbindung zum Zielsystem her. Installation mit entferntem Zugriff 25 .4. müssen Sie die Verbindung zum Zielsystem wiederherstellen. legen Sie mithilfe der Eingabeaufforderung für die Boot-Optionen die entsprechenden Parameter für die Netzwerkverbindung. Um die Installation abzuschließen. 5 Führen Sie die Installation wie in Kapitel Installation mit YaST (↑Start) beschrieben aus. „Installationsquellen auf dem Server einrichten“ (S. 2 Booten Sie das Zielsystem mithilfe der ersten CD oder DVD des SUSE LinuxMedienkits. 50). Weitere Informationen sowie ausführliche Anweisungen zur Verwendung dieser Parameter finden Sie in Abschnitt 1. Das Zielsystem bootet in eine textbasierte Umgebung und gibt die Netzwerkadresse an. Weitere Informationen zu SMB-Installationsquellen finden Sie in Abschnitt 1.5. nachdem dieses neu gebootet wurde. 6 Schließen Sie die Installation ab. den Speicherort der Installationsquelle und die SSHAktivierung fest. um diese Art der Installation durchzuführen: 1 Richten Sie die Installationsquelle wie in Abschnitt 1.2. 36). unter der die grafische Installationsumgebung über einen beliebigen SSHClient erreichbar ist. 4 Öffnen Sie auf der steuernden Arbeitsstation ein Terminalfenster und stellen Sie wie in „Herstellen der Verbindung mit dem Installationsprogramm“ (S.3. HTTPoder FTP-Netzwerkserver.

5. Dies wird ausführlich in Abschnitt 1. das vom Zielsystem abgerufen werden kann.1. angeschlossen und mit dem Netzwerk verbunden ist • Steuersystem mit funktionierender Netzwerkverbindung und SSH-Client-Software Gehen Sie wie folgt vor. Dies wird ausführlich in Abschnitt 1.2. Stellen Sie bei dieser Art der Installation sicher.1.3. 3 Richten Sie einen DHCP-Server ein. Wählen Sie einen NFS-.und Wake-on-LAN-fähig. der dem zu installierenden Host eine statische IP-Adresse zuweist • Zielsystem.6 Installation auf entfernten Systemen über SSH . der IP-Adressen für alle Computer bereitstellt und dem Zielsystem den Speicherort des TFTP-Servers bekannt gibt. HTTP. Der Zielcomputer wird über den entfernten Zugriff gestartet und gebootet. das PXE-Boot-. 2 Richten Sie einen TFTP-Server ein.2. „Einrichten eines TFTP-Servers“ (S. FTP oder SMB mit funktionierender Netzwerkverbindung • TFTP-Server • Laufender DHCP-Server für Ihr Netzwerk. „Einrichten eines DHCP-Servers“ (S. „Installationsquellen auf dem Server einrichten“ (S. auf dem das Bootimage gespeichert wird. 27) beschrieben ein. 39) beschrieben. um diese Art der Installation auszuführen: 1 Richten Sie die Installationsquelle wie in Abschnitt 1.3. 36).2. 38) beschrieben. Netzwerk.1. „Verwalten einer SMB-Installationsquelle“ (S. dass die folgenden Anforderungen erfüllt sind: • Quelle der Installation mit entferntem Zugriff: NFS. 26 Referenz .PXE-Boot und Wake-on-LAN Diese Art der Installation wird vollständig automatisch durchgeführt. Weitere Informationen zur Konfiguration einer SMBInstallationsquelle finden Sie in Abschnitt 1. HTTPoder FTP-Netzwerkserver.

Dies wird ausführlich in Abschnitt 1. stehen für die Serverkonfiguration mehrere Möglichkeiten zur Verfügung. Auf anderen Versionen von SUSE LINUX Enterprise Server oder SUSE Linux muss die Installationsquelle manuell eingerichtet werden. welches Betriebssystem auf dem Computer ausgeführt wird.3.3 und höher einrichten. „Verwalten einer SMB-Installationsquelle“ (S.2 Installationsquellen auf dem Server einrichten Je nachdem.5. 5 Initiieren Sie den Bootvorgang des Zielsystems mithilfe von Wake-on-LAN. Um die Installation abzuschließen. TIPP Für die Linux-Installation kann auch ein Microsoft Windows-Computer als Installationsserver verwendet werden. 6 Starten Sie auf der steuernden Arbeitsstation einen SSH-Client und stellen Sie wie in Abschnitt 1. Installation mit entferntem Zugriff 27 . 1. 8 Schließen Sie die Installation ab. müssen Sie die Verbindung zum Zielsystem wiederherstellen. Weitere Einzelheiten finden Sie in Abschnitt 1. „SSH-Installation“ (S. Am einfachsten lässt sich ein Installationsserver mit YaST auf SUSE LINUX Enterprise Server 9 oder SUSE Linux 9. 47) beschrieben.2. „Vorbereiten des Zielsystems für PXE-Boot“ (S.5.3. nachdem dieses neu gebootet wurde. 55) beschrieben eine Verbindung zum Zielsystem her.4 Bereiten Sie das Zielsystem für PXE-Boot vor. 7 Führen Sie die Installation wie in Kapitel Installation mit YaST (↑Start) beschrieben aus. 36).5. der als Netzwerk-Installationsquelle für SUSE Linux verwendet werden soll.7. 46) beschrieben. Dies wird ausführlich in Abschnitt 1.2. „Wake-on-LAN“ (S.

Dieser Schritt bezieht sich auf die automatische Konfiguration der Serverdienste. 6 Konfigurieren Sie die Installationsquelle. 5 Konfigurieren Sie den erforderlichen Servertyp.1. die im folgenden Schritt definiert wird. FTP.und NFS-Netzwerk-Installationsserver. Wenn die automatische Konfiguration deaktiviert ist. Die Installationsquelle befindet sich später unter ftp://Server-IP/Alias/Name (FTP) oder unter http://Server-IP/Alias/Name (HTTP). Geben Sie in beiden Fällen das Verzeichnis an. der als Installationsserver verwendet werden soll. 28 Referenz . Wenn Sie im vorherigen Schritt NFS ausgewählt haben. als root an. indem Sie Keine Netzwerkdienste konfigurieren wählen. deaktivieren Sie die automatische Konfiguration des Serverdiensts. 1 Melden Sie sich bei dem Computer. Wenn ein Dienst des ausgewählten Typs auf dem System bereits ausgeführt wird und Sie diesen Dienst für den Server manuell konfigurieren möchten.2. Informationen zu NFS und Exportvorgängen finden Sie in Kapitel 22. Name steht für den Namen der Installationsquelle. Verteilte Nutzung von Dateisystemen mit NFS (S. wird dieser Schritt übersprungen. 2 Starten Sie YaST → Verschiedenes → Installationsserver. Der ausgewählte Serverdienst wird bei jedem Systemstart automatisch gestartet. 4 Wählen Sie den gewünschten Servertyp (HTTP. Es unterstützt HTTP-.1 Einrichten eines Installationsservers mithilfe von YaST YaST bietet ein grafisches Werkzeug zum Erstellen von Netzwerk-Installationsquellen. in dem die Installationsdaten gespeichert werden sollen. 433). legen Sie Platzhalter und Exportoptionen fest. Der Zugriff auf den NFS-Server erfolgt über nfs://Server-IP/Name . FTP oder NFS). Legen Sie einen Aliasnamen für das Stammverzeichnis auf dem FTPoder HTTP-Server fest. 3 Wählen Sie Serverkonfiguration. in dem die Installationsdaten auf dem Server zur Verfügung gestellt werden sollen.

YaST ermöglicht das Bereitstellen von ISO-Images der Medien an Stelle von Kopien der Installations-CDs.4. aktivieren Sie das entsprechende Kontrollkästchen und geben Sie den Verzeichnispfad an. Der die meiste Zeit in Anspruch nehmende Schritt bei der Konfiguration eines Installationsservers ist das Kopieren der eigentlichen Installations-CDs. „Booten des Zielsystems für die Installation“ (S. Wenn Sie die Option Nach zusätzlichen CDs verlangen aktivieren. indem Sie Beenden wählen. in dem sich die ISO-Dateien lokal befinden. Installation mit entferntem Zugriff 29 . können für die vollständige Produktinstallation mehrere Zusatz-CDs oder Service-Pack-CDs erforderlich sein. Wenn Sie diese Funktion verwenden möchten. Je nachdem. Er wird bei jedem Systemstart automatisch gestartet. diese Medien zur Verfügung zu stellen. Legen Sie die Medien in der von YaST angegebenen Reihenfolge ein und warten Sie. 48). Sie müssen diesen Dienst lediglich ordnungsgemäß manuell konfigurieren und starten. TIPP Wenn Ihr Netzwerk diese Option unterstützt. 7 Laden Sie die Installationsdaten hoch. Weitere Informationen zu dieser Option finden Sie in Abschnitt 1. Wenn alle Quellen erfolgreich kopiert wurden. kehren Sie zur Übersicht der vorhandenen Informationsquellen zurück und schließen Sie die Konfiguration. sollten Sie Ihre Installationsquelle auf jeden Fall über OpenSLP bekannt machen. Dadurch ersparen Sie sich die Eingabe des Netzwerk-Installationspfads auf den einzelnen Zielcomputern. Es sind keine weiteren Aktionen erforderlich. aktivieren Sie die entsprechende Option. Um den Installationsserver über OpenSLP im Netzwerk bekannt zu geben.Bevor die Installationsmedien in ihr Zielverzeichnis kopiert werden. Die Zielsysteme werden einfach unter Verwendung der SLP-Boot-Option gebootet und finden die Netzwerk-Installationsquelle ohne weitere Konfigurationsschritte. müssen Sie den Namen der Installationsquelle angeben (dies sollte im Idealfall eine leicht zu merkende Abkürzung des Produkts und der Version sein). bis der Kopiervorgang abgeschlossen ist. welches Produkt mithilfe dieses Installationsservers verteilt werden soll. werden Sie von YaST automatisch daran erinnert. Der Installationsserver ist jetzt vollständig konfiguriert und betriebsbereit. wenn die automatische Konfiguration der ausgewählten Netzwerkdienste mit YaST anfänglich deaktiviert wurde.

Um eine Installationsquelle zu deaktivieren.2 Manuelles Einrichten einer NFS-Installationsquelle Das Einrichten einer NFS-Quelle für die Installation erfolgt in zwei Schritten. um die Installationsquelle zu konfigurieren. Sie können sie jedoch manuell entfernen. Beispiel: mkdir install/Produkt/Produktversion cd install/Produkt/Produktversion Ersetzen Sie Produkt durch eine Abkürzung des Produktnamens (in diesem Fall SUSE Linux) und Produktversion durch eine Zeichenkette. Dieses Löschverfahren bezieht sich nur auf das Deaktivieren des Serverdienstes. um die Liste der verfügbaren Installationsquellen zu öffnen. 1. 2 Erstellen Sie ein Verzeichnis. die den Produktnamen und die Version enthält. Im ersten Schritt erstellen Sie die Verzeichnisstruktur für die Installationsdaten und kopieren diese in die Struktur. in dem die Installationsdaten gespeichert werden sollen.2. um ein Verzeichnis für die Installationsdaten zu erstellen: 1 Melden Sie sich als root an. Im zweiten Schritt exportieren Sie das Verzeichnis mit den Installationsdaten in das Netzwerk. 3 Führen Sie für die einzelnen im Medienkit enthaltenen CDs die folgenden Befehle aus: a Kopieren Sie den gesamten Inhalt der Installations-CD in das ServerInstallationsverzeichnis: 30 Referenz . Wenn der Installationsserver die Installationsdaten für mehrere Produkte einer Produktversion zur Verfügung stellen soll. Die Installationsdaten selbst verbleiben im ausgewählten Verzeichnis. und wechseln Sie in dieses Verzeichnis. starten Sie das YaST-Installationserver-Modul und wählen Sie in der Übersicht der vorhandenen Installationsquellen die Option Konfigurieren. Gehen Sie wie folgt vor. Wählen Sie den zu entfernenden Eintrag und wählen Sie anschließend die Option Löschen. wählen Sie in der Übersicht die Option Ändern.

3 Wählen Sie NFS-Server starten und Firewall-Port öffnen und klicken Sie auf Weiter. Dies kann je nach Laufwerktyp.oder DVD-Laufwerk befindet. Installation mit entferntem Zugriff 31 . 2 Starten Sie YaST → Netzwerkdienste → NFS-Server. 6 Klicken Sie auf Beenden. cdrom. b Benennen Sie das Verzeichnis in die CD-Nummer um: mv Pfad_zum_CD-ROM-Laufwerk CDx Ersetzen Sie x durch die Nummer der CD. in dem sich das CD. 4 Wählen Sie Verzeichnis hinzufügen und geben Sie den Pfad des Verzeichnisses ein.cp -a /media/Pfad_zum_CD-ROM-Laufwerk . In diesem Fall lautet es /Produktversion. finden Sie auf der Manualpage zu exports. auf dem sich die SUSE Linux-Installationsquellen befinden. Weitere Informationen darüber. Gehen Sie wie folgt vor. wird automatisch gestartet und in den Bootvorgang integriert. Netzwerkadressbereiche oder einfach den Domänennamen Ihres Netzwerks eingeben. die für die meisten Konfigurationen ausreichend ist. um die Installationsquellen unter Verwendung von YaST über NFS zu exportieren: 1 Melden Sie sich als root an. Der NFS-Server. An Stelle der Hostnamen können Sie hier auch Platzhalter. Geben Sie die gewünschten Exportoptionen an oder übernehmen Sie die Vorgabe. welche Syntax beim Exportieren von NFS-Freigaben verwendet wird. 5 Wählen Sie Host hinzufügen und geben Sie die Hostnamen der Computer ein. dvd oder dvdrecorder sein. cdrecorder. der auf dem System verwendet wird. Ersetzen Sie Pfad_zum_CD-ROM-Laufwerk durch den tatsächlichen Pfad. in dem sich die Installationsdaten befinden. auf die die Installationsdaten exportiert werden sollen.

suse.en. 2 Wechseln Sie in das Verzeichnis /etc/slp.root_squash.nfs.suse:nfs://$HOSTNAME/path_instsource/CD1. Um den Zugriff auf diesen Server zu beschränken. führen Sie die folgenden Befehle aus: insserv /etc/init.reg.sync) Dadurch wird das Verzeichnis /Produktversion auf alle Hosts exportiert. 2 Öffnen Sie die Datei /etc/exports und geben Sie die folgende Zeile ein: /Produktversion *(ro. sondern manuell exportieren möchten. Speichern und schließen Sie diese Konfigurationsdatei. Die Bekanntgabe des NFS-Servers über OpenSLP stellt dessen Adresse allen Clients im Netzwerk zur Verfügung.d/. indem Sie rcnfsserver restart eingeben. die die folgenden Zeilen enthält: # Register the NFS Installation Server service:install. die Teil dieses Netzwerks sind oder eine Verbindung zu diesem Server herstellen können. 1 Melden Sie sich als root an. geben Sie an Stelle des allgemeinen Platzhalters * Netzmasken oder Domänennamen an.Wenn Sie die Installationsquellen nicht mit dem YaST-NFS-Servermodul. gehen Sie wie folgt vor: 1 Melden Sie sich als root an.reg. ändern Sie die Konfigurationsdatei wie erforderlich und starten die den NFS-Daemon neu. Weitere Informationen hierzu finden Sie auf der Manualpage für den Befehl export.65535 description=NFS Installation Source 32 Referenz . 3 Um den NFS-Dienst zu der beim Booten des System generierten Liste der Server hinzuzufügen.d/nfsserver insserv /etc/init.d/portmap 4 Starten Sie den NFS-Server mit dem folgenden Befehl: rcnfsserver start Wenn Sie die Konfiguration des NFS-Servers zu einem späteren Zeitpunkt ändern müssen. 3 Erstellen Sie eine Konfigurationsdatei namens install.

4 Speichern Sie diese Konfigurationsdatei und starten Sie den OpenSLP-Daemon mit dem folgenden Befehl: rcslpd start Weitere Informationen zu OpenSLP finden Sie in der Paket-Dokumentation im Verzeichnis /usr/share/doc/packages/openslp/ oder in Kapitel 19.2.2.2. SLPDienste im Netzwerk (S. FTP-Installationsquellen können ebenfalls mit OpenSLP im Netzwerk bekannt gegeben werden.3 Manuelles Einrichten einer FTP-Installationsquelle Das Erstellen einer FTP-Installationsquelle erfolgt ähnlich wie das Erstellen einer NFSInstallationsquelle. b Wechseln Sie in das Stammverzeichnis des FTP-Servers: cd/srv/ftp c Erstellen Sie im Stammverzeichnis des FTP-Servers ein Unterverzeichnis für die Installationsquellen: mkdirInstquelle Ersetzen Sie Instquelle durch den Produktnamen. 30) ein Verzeichnis für die Installationsquellen. Installation mit entferntem Zugriff 33 . 2 Konfigurieren Sie den FTP-Server für die Verteilung des Inhalts des Installationsverzeichnisses: a Melden Sie sich als root an und installieren Sie mithilfe des YaST-PaketManagers das Paket pure-ftpd (ein einfacher FTP-Server). 1 Erstellen Sie wie in Abschnitt 1. 1. „Manuelles Einrichten einer NFS-Installationsquelle“ (S. 395).Ersetzen Sie path_instsource durch den eigentlichen Pfad der Installationsquelle auf dem Server.

suse. „Manuelles Einrichten einer NFS-Installationsquelle“ (S.2. Die Zeile service: sollte als eine fortlaufende Zeile eingegeben werden. 30) beschrieben).ftp. 30).suse:ftp://$HOSTNAME/srv/ftp/instsource/CD1. die die folgenden Zeilen enthält: # Register the FTP Installation Server service:install. Alternativ dazu können Sie den Inhalt des bereits vorhandenen InstallationsRepositorys auch in der change-root-Umgebung des FTP-Servers einhängen: mount --bind Pfad_zur_Instquelle /srv/ftp/Instquelle Ersetzen Sie Pfad_zur_Instquelle und Instquelle durch die entsprechenden Werte für Ihre Konfiguration.d Kopieren Sie den Inhalt der Installations-CDs in das Stammverzeichnis des FTP-Servers (ähnlich wie in Abschnitt 1. Wenn diese Einstellungen dauerhaft übernommen werden sollen. fügen Sie sie zu /etc/fstab hinzu.2. e Starten Sie pure-ftpd: pure-ftpd & 3 Geben Sie die Installationsquelle über OpenSLP bekannt. Schritt 3 (S. sofern dies von Ihrer Netzwerkkonfiguration unterstützt wird: a Erstellen Sie eine Konfigurationsdatei namens install.65535 description=FTP Installation Source Ersetzen Sie instsource durch den Namen des Verzeichnisses auf dem Server.en.reg unter /etc/slp/reg.d/. b Speichern Sie diese Konfigurationsdatei und starten Sie den OpenSLPDaemon mit dem folgenden Befehl: rcslpd start 34 Referenz . in dem sich die Installationsquelle befindet.

„Installation“ (S.2.2. 486) beschrieben.conf) so. „Manuelles Einrichten einer NFS-Installationsquelle“ (S.2. c Erstellen Sie einen symbolischen Link vom Speicherort der Installationsquellen zum Stammverzeichnis des Webservers (/srv/www/htdocs): ln -s /Pfad_Instquelle /srv/www/htdocs/Instquelle d Ändern Sie die Konfigurationsdatei des HTTP-Servers (/etc/apache2/ default-server.2.1. b Wechseln Sie in das Stammverzeichnis des HTTP-Servers (/srv/www/ htdocs) und erstellen Sie ein Unterverzeichnis für die Installationsquellen: mkdirInstquelle Ersetzen Sie Instquelle durch den Produktnamen. dass sie symbolischen Links folgt. Ersetzen Sie die folgende Zeile: Options None durch Options Indexes FollowSymLinks e Laden Sie die HTTP-Server-Konfiguration mit rcapache2 reload neu. Installation mit entferntem Zugriff 35 . 30) ein Verzeichnis für die Installationsquellen. 2 Konfigurieren Sie den HTTP-Server für die Verteilung des Inhalts des Installationsverzeichnisses: a Installieren Sie den Webserver Apache wie in Abschnitt 26. 1 Erstellen Sie wie in Abschnitt 1.1.4 Manuelles Einrichten einer HTTP-Installationsquelle Das Erstellen einer HTTP-Installationsquelle erfolgt ähnlich wie das Erstellen einer NFS-Installationsquelle. HTTP-Installationsquellen können ebenfalls mit OpenSLP im Netzwerk bekannt gegeben werden.

der die gesamte Baumstruktur der Installation aufnehmen soll. 1. die die folgenden Zeilen enthält: # Register the HTTP Installation Server service:install. 4 Wechseln Sie in den freigegebenen Ordner und erstellen Sie einen Unterordner namens Produkt.65535 description=HTTP Installation Source Ersetzen Sie instsource durch den eigentlichen Pfad der Installationsquelle auf dem Server.suse. und nennen Sie ihn beispielsweise INSTALL. Die Zeile service: sollte als eine fortlaufende Zeile eingegeben werden.2. Gehen Sie wie folgt vor. um eine exportierte Windows-Share mit den SUSE LinuxInstallationsquellen einzurichten: 1 Melden Sie sich auf dem Windows-Computer an.3 Geben Sie die Installationsquelle über OpenSLP bekannt. b Speichern Sie diese Konfigurationsdatei und starten Sie den OpenSLPDaemon mit dem folgenden Befehl: rcslpd restart. Produkt ist dabei durch den tatsächlichen Produktnamen (in diesem Fall SUSE Linux) zu ersetzen.http .suse:http://$HOSTNAME/srv/www/htdocs/instsource/CD1/.5 Verwalten einer SMB-Installationsquelle Mithilfe von SMB (Samba) können Sie die Installationsquellen von einem Microsoft Windows-Server importieren und die Linux-Implementierung starten. sofern dies von Ihrer Netzwerkkonfiguration unterstützt wird: a Erstellen Sie eine Konfigurationsdatei namens install.reg unter /etc/slp/reg. 3 Geben Sie diesen Ordner wie in der Windows-Dokumentation beschrieben im Netzwerk frei.d/. 2 Öffnen Sie den Explorer und erstellen Sie einen neuen Ordner. 36 Referenz . ohne dass ein Linux-Computer vorhanden sein muss.en.

xml und boot. um eine Auswahl der Installationsquellen anzuzeigen. 2 Wählen Sie Installation. 3 Drücken Sie F3 und F4 . 8 Öffnen Sie die Datei order und fügen Sie die folgende Zeile hinzu: /NLD/CD1 smb://Benutzer:Passwort@Hostname/ProduktCD1 Ersetzen Sie Benutzer durch den Benutzernamen.5 Kopieren Sie jede SUSE Linux-CD in einen separaten Ordner und nennen Sie diese Ordner CD1. control. Installation mit entferntem Zugriff 37 . 9 Öffnen Sie die Datei instorder und fügen Sie die folgende Zeile hinzu: /product/CD1 Um eine SMB-eingehängte Freigabe als Installationsquelle zu verwenden. 7 Erstellen Sie unter INSTALL einen neuen Ordner und nennen Sie ihn yast. 4 Wählen Sie „SMB“ und geben Sie den Namen oder die IP-Adresse des WindowsComputers. den Sie auf dem WindowsComputer verwenden. CD2. Wechseln Sie in den Ordner yast und erstellen Sie die Dateien order und instorder. 6 Wechseln Sie in das oberste Verzeichnis des freigegebenen Ordners (INSTALL in diesem Beispiel) und kopieren Sie die folgenden Dateien und Ordner aus Produkt/CD1 in diesen Ordner: content. oder geben Sie Guest an. den Benutzernamen und das Passwort ein.1. CD3 usw. um die Gastanmeldung für diese Freigabe zu aktivieren. den Freigabenamen (INSTALL in diesem Beispiel). Hostname sollte durch den Netzwerknamen des Windows-Computers ersetzt werden. Passwort sollte entweder durch Ihr Anmeldepasswort oder durch eine beliebige Zeichenkette für die Gastanmeldung ersetzt werden. media. gehen Sie wie folgt vor: 1 Booten Sie das Installationsziel.

1. die sich unter /etc/ dhcpd. Manuelles Einrichten eines DHCP-Servers Die einzige Aufgabe des DHCP-Servers ist neben der Bereitstellung der automatischen Adresszuweisung für die Netzwerk-Clients die Bekanntgabe der IP-Adresse des TFTPServers und der Datei. In diesem Abschnitt wird beschrieben.conf befindet.3 Vorbereitung des Bootvorgangs für das Zielsystem In diesem Abschnitt werden die für komplexe Boot-Szenarien erforderlichen Konfigurationsschritte beschrieben.Wenn Sie die Eingabe drücken. die von den Installationsroutinen auf dem Zielcomputer abgerufen werden soll.1 Einrichten eines DHCP-Servers Das Einrichten eines DHCP-Servers unter SUSE Linux erfolgt manuell durch Bearbeiten der entsprechenden Konfigurationsdateien. folgende Zeilen hinzu: group { # PXE related stuff # # "next server" defines the tftp server that will be used next server ip_tftp_server: # # "filename" specifies the pxelinux image on the tftp server # the server runs in chroot under /srv/tftpboot filename "pxelinux. 1. Er enthält zudem Konfigurationsbeispiele für DHCP. } 38 Referenz .3. der den DHCP-Server hostet. wird YaST gestartet und Sie können die Installation ausführen. wie eine vorhandene DHCP-Serverkonfiguration erweitert wird. PXE.0". TFTP und Wake-on-LAN. 1 Melden Sie sich als root auf dem Computer an. 2 Fügen Sie der Konfigurationsdatei des DHCP-Servers. sodass sie die für eine TFTP-. PXEBoot.und WOL-Umgebung erforderlichen Daten zur Verfügung stellt.

Ändern Sie hierzu die oben erwähnte DHCP-Konfiguration gemäß dem folgenden Beispiel: group { # PXE related stuff # # "next server" defines the tftp server that will be used next server ip_tftp_server: # # "filename" specifiies the pxelinux image on the tftp server # the server runs in chroot under /srv/tftpboot filename "pxelinux. fixed-address some_ip_address. entweder mit YaST oder manuell auf einem beliebigen Linux-Betriebssystem. damit Sie über SSH eine Verbindung zum System herstellen können.3. Nach dem Neustart weist der DHCP-Server dem angegebenen Host eine statische IPAdresse zu. 3 Starten Sie den DHCP-Server neu.conf verfügbaren Optionen finden Sie auf der Manualpage dhcpd. Installation mit entferntem Zugriff 39 .conf. das xinetd und tftp unterstützt. Ersetzen Sie alle in diesem Beispiel verwendeten Variablen durch die in Ihrer Umgebung verwendeten Werte. } } Die Host-Anweisung gibt den Hostnamen des Installationsziels an. sobald dieses gebootet ist und eine entsprechende Anforderung sendet.und Wake-on-LAN-Installation verwenden möchten. die der DHCP-Server dem Installationsziel zur Verfügung stellen soll. Um den Hostnamen und die IP-Adresse an einen bestimmten Host zu binden. Weitere Informationen zu den in dhcpd. müssen Sie die IP-Adresse. müssen Sie die HardwareAdresse (MAC) des Systems kennen und angeben.Ersetzen Sie ip_tftp_server durch die IP-Adresse des TFTP-Servers.2 Einrichten eines TFTP-Servers Richten Sie einen TFTP-Server ein. Wenn Sie SSH für die Fernsteuerung einer PXE. host test { hardware ethernet mac_address. indem Sie rcdhcpd restart ausführen. Der TFTP-Server übergibt das Bootimage an das Zielsystem. explizit angeben.0". 1.

4 Ändern Sie die Konfiguration von xinetd. Manuelles Einrichten eines TFTP-Servers 1 Melden Sie sich als root an und installieren Sie die Pakete tftp und xinetd. 5 Klicken Sie auf Durchsuchen. die sich unter /etc/xinetd. dass der tftp-Server beim Booten gestartet wird: a Erstellen Sie. um sicherzustellen. 41) beschrieben die für das Bootimage erforderlichen Dateien hinzu.3. Diese Option ist nur verfügbar. indem Sie touch tftp eingeben. wenn auf dem Server eine Firewall installiert ist. tftpd wird zur Boot-Zeit von xinetd gestartet. sofern sie noch nicht vorhanden sind. 40 Referenz .cfg. um nach dem Verzeichnis mit dem Bootimage zu suchen. 3 Fügen Sie wie in Abschnitt 1. die auf dem Computer aktiv ist.d/ befindet. „PXE-Boot“ (S. Das Standardverzeichnis /tftpboot wird erstellt und automatisch ausgewählt. um die Einstellungen zu übernehmen und den Server zu starten. 2 Erstellen Sie die Verzeichnisse /srv/tftpboot und /srv/tftpboot/ pxelinux. 3 Klicken Sie auf Aktivieren. um sicherzustellen. um den entsprechenden Port in der Firewall zu öffnen. Ihrerseits sind hierbei keine weiteren Aktionen erforderlich. 4 Klicken Sie auf Firewall-Port öffnen. eine Datei namens tftp in diesem Verzeichnis.Einrichten eines TFTP-Servers mit YaST 1 Melden Sie sich als root an. Führen Sie anschließend folgenden Befehl aus: chmod 755 tftp. sofern noch nicht vorhanden. dass der Server gestartet und in die Boot-Routine aufgenommen wird. 6 Klicken Sie auf Beenden. 2 Starten Sie YaST → Netzwerkdienste → TFTP-Server und installieren Sie das erforderliche Paket.3.

cfg/default Installation mit entferntem Zugriff 41 . indem Sie folgenden Befehl eingeben: cp -a /usr/share/syslinux/pxelinux.0 in das Verzeichnis /srv/tftpboot.tftpd -s /tftpboot no c Speichern Sie die Datei und starten Sie xinetd mit rcxinetd restart neu. initrd.cfg /srv/tftpboot/pxelinux.b Öffnen Sie die Datei tftp und fügen Sie die folgenden Zeilen hinzu: service tftp { socket_type protocol wait user server server_args disable } = = = = = = = dgram udp yes root /usr/sbin/in.3. 3 Kopieren Sie die Datei /usr/share/syslinux/pxelinux. indem Sie folgenden Befehl eingeben: cp -a boot/loader/isolinux. message und memtest in das Verzeichnis /srv/tftpboot. indem Sie folgenden Befehl eingeben: cp -a boot/loader/linux boot/loader/initrd boot/loader/message boot/loader/memtest /srv/tftpboot 2 Installieren Sie unter Verwendung von YaST das Paket syslinux direkt von den Installations-CDs oder -DVDs.3 PXE-Boot Einige technische Hintergrundinformationen sowie die vollständigen PXE-Spezifikationen finden Sie in der PXE-(Preboot Execution Environment-)Spezifikation (ftp:// download.pdf).com/labs/manage/wfm/download/pxespec.cfg/default. 1.intel.0 /srv/tftpboot 4 Wechseln Sie in das Verzeichnis des Installations-Repositorys und kopieren Sie die Datei isolinux.cfg in das Verzeichnis /srv/tftpboot/pxelinux . 1 Wechseln Sie in das Verzeichnis des Installations-Repositorys und kopieren Sie die Dateien linux.

48).cfg/default und entfernen Sie die Zeilen. Dieser Eintrag ist jedoch nur erforderlich und muss entsprechend angepasst werden. wenn der Client mit mehreren Netzwerkkarten ausgestattet ist. kann dieser Eintrag ausgelassen werden. Ersetzen Sie IP_Instserver durch die IP-Adresse des Installationsservers. netdevice=eth0 Dieser Eintrag definiert die Schnittstelle des Client-Netzwerks. readinfo und framebuffer beginnen. HTTP-. z. FTP. Einen Überblick über die Parameter sowie einige Beispiele finden Sie in Abschnitt 1. B. Im Fall einer Broadcom GigaBit-Netzwerkkarte muss der Eintrag wie folgt lauten: insmod=bcm5700.5 Bearbeiten Sie die Datei /srv/tftpboot/pxelinux. das wie folgt lauten sollte: http.4. 6 Fügen Sie die folgenden Einträge in die append-Zeilen der standardmäßigen Kennungen failsafe und apic ein: insmod=e100 Mit diesem Eintrag wird das Kernel-Modul für eine Intel 100 MBit/s Netzwerkkarte auf die PXE-Clients geladen. Falls nur eine Netzwerkkarte verwendet wird. Der Eintrag ist abhängig von der Client-Hardware und muss entsprechend angepasst werden.oder SMB-Quellen werden auf ähnliche Weise adressiert. die mit gfxboot. Eine Ausnahme ist das Protokollpräfix. SSHoder VNC-Boot-Parameter. Pfad_Instquelle muss durch den Pfad der Installationsquellen ersetzt werden. ftp oder smb. „Booten des Zielsystems für die Installation“ (S. Passen Sie das Protokollpräfix für die Installationsquelle gemäß der Netzwerkkonfiguration an und geben Sie 42 Referenz .cfg/default. übergeben werden sollen. die für die Netzwerkinstallation verwendet werden muss. hängen Sie sie an den Eintrag install an. install=nfs://IP_Instserver/Pfad_Instquelle/CD1 Dieser Eintrag gibt den NFS-Server und die Installationsquelle für die ClientInstallation an. Im Folgenden finden Sie die Beispieldatei /srv/tftpboot/pxelinux. WICHTIG Wenn den Installationsroutinen weitere Boot-Optionen.

default linux # default label linux kernel linux append initrd=initrd ramdisk_size=65536 insmod=e100 \ install=nfs://ip_instserver/path_instsource/product # failsafe label failsafe kernel linux append initrd=initrd ramdisk_size=65536 ide=nodma apm=off acpi=off \ insmod=e100 install=nfs://ip_instserver/path_instsource/product # apic label apic kernel linux append initrd=initrd ramdisk_size=65536 apic insmod=e100 \ install=nfs://ip_instserver/path_instsource/product # manual label manual kernel linux append initrd=initrd ramdisk_size=65536 manual=1 # rescue label rescue kernel linux append initrd=initrd ramdisk_size=65536 rescue=1 # memory test label memtest kernel memtest # hard disk label harddisk kernel linux append SLX=0x202 implicit display prompt timeout 0 message 1 100 Installation mit entferntem Zugriff 43 .die bevorzugte Methode an. indem Sie die Optionen vnc und vncpassword oder ssh und sshpassword zum Eintrag install hinzufügen. mit der die Verbindung zum Installationsprogramm hergestellt werden soll. Die durch \ getrennten Zeilen müssen als fortlaufenden Zeile ohne Zeilenumbruch und ohne den \ eingegeben werden.

APPEND Optionen. dass explizit eingegebene Kernel-Optionen sie überschreiben können.. die sich im Verzeichnis /usr/share/doc/packages/syslinux/ befindet. als wären die Einträge nach DEFAULT an der Boot-Eingabeaufforderung eingegeben worden.. dass.4 PXELINUX-Konfigurationsoptionen Die hier aufgeführten Optionen sind eine Teilmenge der für die PXELINUX-Konfigurationsdatei verfügbaren Optionen. Die Vorgabe für Image ist dieselbe wie für Kennung und wenn keine APPEND-Optionen angegeben sind. Legt die standardmäßige Kernel-Befehlszeile fest. PXELINUX stattdessen Image booten soll und die angegebenen APPEND-Optionen an Stelle der im globalen Abschnitt der Datei (vor dem ersten LABEL-Befehl) angegebenen Optionen verwendet werden sollen. Es sind bis zu 128 LABEL-Einträge zulässig. Wenn keine Konfigurationsdatei vorhanden oder der DEFAULT-Eintrag in der Konfigurationsdatei nicht vorhanden ist. ist die Vorgabe der Kernel-Name „linux“ ohne Optionen. Weitere Informationen zu den verfügbaren Optionen finden Sie in der Dokumentation des Pakets syslinux. dass die Option für das automatische Booten (boot) automatisch hinzugefügt wird. DEFAULT Kernel Optionen. Die Optionen werden an den Beginn der Kernel-Befehlszeile gesetzt und ermöglichen. Diese werden sowohl bei automatischen als auch bei manuellen Bootvorgängen hinzugefügt. Beachten Sie. Wenn PXELINUX automatisch gebootet wird. LABEL Kennung KERNEL Image APPEND Optionen. wird standardmäßig der globale Eintrag verwendet (sofern vorhanden). agiert es..3. Gibt an.Ersetzen Sie ip_instserver und path_instsource durch die in Ihrer Konfiguration verwendeten Werte. 1.. außer.. dass GRUB die folgende Syntax verwendet: 44 Referenz . Fügt der Kernel-Befehlszeile eine oder mehrere Optionen hinzu. wenn Kennung als zu bootender Kernel eingegeben wird.. Der folgende Abschnitt dient als Kurzreferenz für die in dieser Konfiguration verwendeten PXELINUX-Optionen.

sondern kann ein Bootsektor oder eine COMBOOT-Datei sein. der sich im Arbeitsspeicher befindet 5 Installation mit entferntem Zugriff 45 .1.1. Der Kernel muss kein Linux-Kernel. LOCALBOOT Typ Wenn Sie unter PXELINUX LOCALBOOT 0 an Stelle einer KERNEL-Option angeben. einschließlich des UNDI-Treibers aus. dass diese bestimmte Kennung aufgerufen und die lokale Festplatte an Stelle eines Kernels gebootet wird.title mytitle kernel my_kernel my_kernel_options initrd myinitrd während PXELINUX diese Syntax verwendet: label mylabel kernel mykernel append myoptions Kennungen werden wie Dateinamen umgesetzt und müssen nach der Umsetzung (sogenanntes Mangling) eindeutig sein. APPEND Es wird nichts angehängt. Argument 0 4 Beschreibung Führt einen normalen Bootvorgang aus Führt einen lokalen Bootvorgang mit dem noch im Arbeitsspeicher vorhandenen UNDI-Treiber (Universal Network Driver Interface) aus Führt einen lokalen Bootvorgang mit dem gesamten PXE-Stack. bedeutet dies. da beide auf denselben DOS-Dateinamen umgesetzt würden. APPEND mit einem Bindestrich als Argument in einem LABEL-Abschnitt kann zum Überschreiben einer globalen APPEND-Option verwendet werden. Die beiden Kennungen „v2.30“ und „v2.31“ wären beispielsweise unter PXELINUX nicht unterscheidbar.

3. sich selbst bei jedem Booten neu zu installieren. wenn an der Boot-Eingabeaufforderung eine Funktionstaste gedrückt wird.5 Vorbereiten des Zielsystems für PXE-Boot Bereiten Sie das System-BIOS für PXE-Boot vor.oder PXE-Stacks nicht wissen. Mithilfe dieser Option kann auch die Preboot-Online-Hilfe implementiert werden (für die Kernel-Befehlszeilenoptionen. Dateinamen an F11 und F12 zu binden. wie lange die Boot-Eingabeaufforderung angezeigt werden soll. F9 Dateiname F10Dateiname Zeigt die angegebene Datei auf dem Bildschirm an. Das Zeitlimit wird aufgehoben. geben Sie 0 an. wenn die Taste Umschalttaste oder Alt gedrückt wird oder die Feststelltaste oder die Taste Rollen gesetzt ist (dies ist die Vorgabe). Wenn Sie die Werte für die UNDI.Alle anderen Werte sind nicht definiert.. dass derzeit keine Möglichkeit besteht. Andernfalls würde dieses System versuchen. Der größtmögliche Wert für das Zeitlimit ist 35996 (etwas weniger als eine Stunde). wird die Boot-Eingabeaufforderung immer angezeigt. indem Sie die PXE-Option in die BIOS-Boot-Reihenfolge aufnehmen. bevor der Bootvorgang automatisch gestartet wird.. wird die Boot-Eingabeaufforderung nur angezeigt. Wenn flag_val 1 ist. da angenommen wird.) Aus Gründen der Kompabilität mit früheren Versionen kann F10 auch als F0 verwendet werden. 46 Referenz . sobald der Benutzer eine Eingabe über die Tastatur vornimmt. dass der Benutzer die Befehlseingabe abschließt. Mit einem Zeitlimit von Null wird das Zeitüberschreitungsoption deaktiviert (dies ist die Vorgabe). PROMPT flag_val Wenn flag_val 0 ist. 1. F2 Dateiname F1 Dateiname . WARNUNG Die PXE-Option darf im BIOS nicht vor der Boot-Option für die Festplatte stehen.usw.. Beachten Sie. TIMEOUT Zeitlimit Gibt in Einheiten von 1/10 Sekunde an.

7 Wake-on-LAN Mit Wake-on-LAN kann ein Computer über ein spezielles Netzwerkpaket. oder steuern Sie einen Computer in diesem Netzwerksegment per entferntem Zugriff so. Installation mit entferntem Zugriff 47 .3.1. konfigurieren Sie die WOL-requests entweder so. Diese Daten sind für das Initiieren von Wake-on-LAN erforderlich.6 Vorbereiten des Zielsystems für Wake-on-LAN Wake-on-LAN (WOL) erfordert. dass sie als Multicasts verteilt werden. ist es nicht möglich.8 Manuelles Wake-on-LAN 1 Melden Sie sich als root an. dass er als Absender dieser Anforderungen agiert.3. um das Ziel zu starten: ether-wakeMAC_Ziel Ersetzen Sie MAC_Ziel durch die MAC-Adresse des Ziels. dass die entsprechende BIOS-Option vor der Installation aktiviert wird. dass versehentlich ein falscher Computer gestartet wird. 3 Öffnen Sie ein Terminal und geben Sie als root den folgenden Befehl ein. 1. Da jeder Computer einen eindeutigen MAC-Bezeichner hat.3. 2 Starten Sie YaST → Software Management und installieren Sie das Paket netdiag. Außerdem müssen Sie sich die MAC-Adresse des Zielsystems notieren. WICHTIG Wenn sich der Steuercomputer nicht im selben Netzwerksegment wie das zu startende Installationsziel befindet. das die MAC-Adresse des Computers enthält. 1. gestartet werden.

7.3. „Benutzerdefinierte Boot-Optionen“ (S.4. 48 Referenz . Installation . die an die Installationsroutinen weitergegeben werden. 1. die der Installations-Kernel für die entsprechende Hardware benötigt.4.1. ohne dass Sie die detaillierte Syntax dieser Parameter kennen müssen. den Bootvorgang für die Installation anzupassen. „Wake-on-LAN“ (S.3. 1. Häufige Probleme und deren Lösung. Sie können entweder die standardmäßigen Boot-Optionen und F-Tasten oder die Eingabeaufforderung für die Boot-Optionen im Bootbildschirm für die Installation verwenden. was der Fall wäre. „PXE-Boot“ (S.4. 50)).ACPI deaktiviert bzw. die bei einigen Setups erforderlich sind. 47) und Abschnitt 1. um die Boot-Optionen anzugeben. Weitere Informationen zu Fehlerbehebung beim Installationsvorgang finden Sie in Abschnitt „Probleme bei der Installation“ (Kapitel 9.Sichere Einstellungen.3. Die verfügbaren Optionen finden Sie in der folgenden Tabelle. 41) beschriebenen Vorgehensweise gibt es im Wesentlichen zwei unterschiedliche Möglichkeiten.4 Booten des Zielsystems für die Installation Abgesehen von der in Abschnitt 1. Verwenden Sie bei Problemen Installation . Mithilfe der F-Tasten können Sie zusätzliche Optionen angeben. ↑Start).1 Standardmäßige Boot-Optionen Die Boot-Optionen wurden bereits ausführlich in Kapitel Installation mit YaST (↑Start) beschrieben. wenn Sie sie als BootOptionen eingeben würden (siehe Abschnitt 1.3. In der Regel wird durch die Auswahl von Installation der Bootvorgang für die Installation gestartet.2 F-Tasten Die Menüleiste unten im Bildschirm enthält einige erweiterte Funktionen.

. Standardwert Keine Englisch Zweck Bietet Hilfe Wählt die Installationssprache Ändert die Bildschirmauflösung für die Installation F3 • Die Standardwerte sind abhängig von der Grafikhardware F4 Wählt die Installationsquelle • CD-ROM/DVD • SLP • FTP • HTTP • NFS • SMB • Festplatte CD-ROM/DVD F5 Führt die Treiberaktualisierung von Diskette aus Treiber Keine Installation mit entferntem Zugriff 49 ..1 Taste F1 F2 F-Tasten bei der Installation Verfügbare Optionen Keine Alle unterstützten Sprachen • Expertenmodus • VESA • Auflösung 1 • Auflösung 2 • .Tabelle 1.

ftp.3 Benutzerdefinierte Boot-Optionen Mithilfe geeigneter Boot-Optionen können Sie den Installationsvorgang vereinfachen.. „Einfache Installation mit entferntem Zugriff über VNC . netdevice=... Viele Parameter können mit den linuxrc-Routinen auch zu einem späteren Zeitpunkt konfiguriert werden..Statische Netzwerkkonfiguration“ (S. Beispiel (alle in einer Zeile): install=.netmask=.. Ersetzen Sie alle Werte (. Um eine Boot-Zeichenkette zu erhalten..2 In diesem Kapitel verwendete Installationsszenarien (Boot-Szenarien) Für den Bootvorgang Boot-Optionen erforderliche Parameter Keine: System bootet automatisch • Adresse des Installationsservers • Netzwerkgerät • IP-Adresse • Netzmaske • Gateway • VNC-Aktivierung • VNC-Passwort Nicht erforderlich Installationsszenario Kapitel Installation mit YaST (↑Start) Abschnitt 1.http. In der folgenden Tabelle sind alle in diesem Kapitel erwähnten Installationsszenarien mit den erforderlichen Parametern für das Booten sowie die entsprechenden BootOptionen aufgeführt.. 18) • install=(nfs. Tabelle 1. hostip=.1..smb)://Pfad_zu _Instmedium • netdevice=some _netdevice (nur erforderlich... in der sie in dieser Tabelle angezeigt werden.4.1. hängen Sie einfach alle Optionen in der Reihenfolge an. wenn mehrere Netzwerkgeräte verfügbar sind) • hostip=some_ip • netmask=some _netmask • gateway=ip_gateway 50 Referenz . die an die Installationsroutinen übergeben wird..1. das Verwenden der Boot-Optionen ist jedoch viel einfacher.. In einigen automatisierten Setups können die Boot-Optionen über die Datei initrd oder eine info-Datei bereit gestellt werden. vnc=..) in dieser Zeichenkette durch die für Ihre Konfiguration geeigneten Werte. vncpassword=..

23) Installation mit entferntem Zugriff 51 .Dynamische Netzwerkkonfiguration über DHCP“ (S.3.http.2.smb)://Pfad_zu _Instmedium • netdevice=some _netdevice (nur erforderlich. „Einfache Installation mit entferntem Zugriff über VNC .1.Installationsszenario Für den Bootvorgang Boot-Optionen erforderliche Parameter • vnc=1 • vncpassword=some _password Abschnitt 1.1. ftp.1. ftp.4.PXEBoot und Wake-onLAN“ (S.smb)://Pfad_zu _Instmedium • vnc=1 • vncpassword=some _password Abschnitt 1. Prozess wird lationsservers über PXE und DHCP verwaltet • Adresse des TFTPServers • VNC-Aktivierung • VNC-Passwort • Adresse des Installationsservers • Netzwerkgerät • IP-Adresse • Netzmaske • Gateway • SSH-Aktivierung • SSH-Passwort • install=(nfs. 19) • Adresse des Installationsservers • VNC-Aktivierung • VNC-Passwort • install=(nfs.Statische Netzwerkkonfiguration“ (S.Nicht zutreffend. „Installation auf entfernten Systemen über VNC . 21) • Adresse des Instal.http. wenn mehrere Netzwerkgeräte verfügbar sind) • hostip=some_ip • netmask=some _netmask • gateway=ip_gateway • usessh=1 Abschnitt 1. „Einfache Installation mit entferntem Zugriff über SSH .

52 Referenz .Nicht zutreffend.Installationsszenario Für den Bootvorgang Boot-Optionen erforderliche Parameter • sshpassword=some _password Abschnitt 1.1. Prozess wird lationsservers über PXE und DHCP verwaltet • Adresse des TFTPServers • SSH-Aktivierung • SSH-Passwort TIPP Weitere Informationen zu den linuxrc-Boot-Optionen für das Booten eines Linux-Systems finden Sie in /usr/share/doc/packages/linuxrc/ linuxrc.5. 24) • Adresse des Installationsservers • SSH-Aktivierung • SSH-Passwort • install=(nfs.6.1.PXEBoot und Wake-onLAN“ (S. 26) • Adresse des Instal. „Einfache Installation auf entfernten Systemen über SSH .http.Dynamische Netzwerkkonfiguration über DHCP“ (S.smb)://Pfad_zu _Instmedium • usessh=1 • sshpassword=some _password Abschnitt 1. ftp. „Installation auf entfernten Systemen über SSH .html.

Da sich das Installationsziel über OpenSLP selbst bekannt gibt. müssen Sie lediglich die entsprechenden Boot-Optionen beim anfänglichen Bootvorgang für die Installation angeben (siehe Abschnitt 1. werden diese Informationen sofort nach dem Booten des Systems für die Installation zur Verfügung gestellt. 1. Wenn Sie physischen Zugriff auf das Zielsystem haben. Installation mit entferntem Zugriff 53 .1. Das Zielsystem bootet in eine textbasierte Umgebung und wartet darauf. In diesem Abschnitt wird das Setup mithilfe einer VNC-Viewer-Anwendung oder eines Webbrowsers beschrieben. „Benutzerdefinierte Boot-Optionen“ (S.5. können Sie die Adressinformationen des Installationsziels über einen SLP-Browser abrufen.4. kann die Installation und Systemkonfiguration mit VNC oder SSH von einer entfernten Arbeitsstation aus überwacht werden. vorausgesetzt. OpenSLP wird von der Netzwerkkonfiguration und von allen Computern unterstützt: 1 Starten Sie KDE und den Webbrowser Konqueror. Das Installationsprogramm gibt die IP-Adresse bekannt und zeigt die für die Verbindung zum Installationsprogramm erforderliche Nummer an. und geben Sie Ihr Passwort ein. 50)). Wenn beim Booten für die Installation die richtigen Boot-Optionen angegeben wurden. Vorbereiten der VNC-Installation Um das Installationsziel für eine VNC-Installation vorzubereiten. wenn Sie von der VNC-Client-Software dazu aufgefordert werden. dass ein VNCClient eine Verbindung zum Installationsprogramm herstellt.3.1 VNC-Installation Mithilfe einer beliebigen VNC-Viewer-Software können Sie die Installation von SUSE Linux von praktisch jedem Betriebssystem aus entfernt überwachen. Geben Sie diese Daten ein. ohne dass Sie physischen Zugriff auf die Installation selbst haben müssen.5 Überwachen des Installationsvorgangs Es gibt mehrere Möglichkeiten der entfernten Überwachung des Installationsvorgangs.

in der die Installation ausgeführt wird. Stellen Sie auf einem Linux-Computer sicher. einschließlich anderer Linux-.tightvnc. Sie können entweder eine unabhängige VNC-Viewer-Anwendung unter einem beliebigen Betriebssystem starten oder die Verbindung über einen Java-fähigen Webbrowser herstellen. um eine Verbindung zu dem auf dem Zielcomputer ausgeführten Installationsprogramm herzustellen: 1 Starten Sie den VNC-Viewer.com/download . Gehen Sie wie folgt vor. Alternativ können Sie die VNC-ViewerSoftware auch mit der zur Verfügung gestellten IP-Adresse ausführen und am Ende der IP-Adresse für die Anzeige. aus steuern. 2 Geben Sie die IP-Adresse und die Display-Nummer des Installationsziels wie vom SLP-Browser oder dem Installationsprogramm selbst zur Verfügung gestellt ein: IP-Adresse:Display-Nummer Auf dem Desktop wird ein Fenster geöffnet. eine Verbindung zu einem VNC-Server (dem Installationsziel in diesem Fall) herzustellen.html) erhältlich ist. in dem Sie die Installation ausführen können. Herstellen der Verbindung mit dem Installationsprogramm Im Wesentlichen gibt es zwei Möglichkeiten. der über die Homepage von TightVNC (http://www. in dem die YaST-Bildschirme wie bei einer normalen lokalen Installation angezeigt werden. 54 Referenz . Durch Klicken auf dieses Symbol wird der KDE-VNC-Viewer geöffnet.installation. :1 hinzufügen.oder Mac OS-Betriebssysteme. dass das Paket tightvnc installiert ist. Mit VNC können Sie die Installation eines Linux-Systems von jedem Betriebssystem.suse in die Adressleiste ein. Daraufhin wird das Zielsystem als Symbol im Konqueror-Fenster angezeigt.2 Geben Sie service://yast. Windows. Installieren Sie auf einem Windows-Computer den Windows-Port dieser Anwendung.

Konqueror. 1. solange dieser Java unterstützt. um eine VNC-Installation auszuführen: 1 Starten Sie Ihren bevorzugten Webbrowser.5. 2 Geben Sie in der Adressleiste Folgendes ein: http://ip_addresse_des_ziels:5801 3 Geben Sie Ihr VNC-Passwort ein. Herstellen der Verbindung mit dem Installationsprogramm 1 Rufen Sie die IP-Adresse des Installationsziels ab. wenn Sie dazu aufgefordert werden.2 SSH-Installation Mithilfe von SSH können Sie die Installation des Linux-Computers unter Verwendung einer beliebigen SSH-Client-Software von einem entfernten Standort aus überwachen.3. Weitere Einzelheiten finden Sie in Abschnitt 1. verwenden Sie einfach die IP-Adresse. Gehen Sie wie folgt vor. sind Sie von der VNC-Software bzw. um SSH für die Installation zu aktivieren.) ausführen. „Benutzerdefinierte Boot-Optionen“ (S. 50). Opera usw. OpenSSH wird auf allen SUSE Linux-basierten Betriebssystemen standardmäßig installiert. Wenn Sie physischen Zugriff auf den Zielcomputer haben. dem zu Grunde liegenden Betriebssystem vollkommen unabhängig.4. Sie können die Installation des Linux-Systems in einem beliebigen Browser (Firefox. Die YaSTBildschirme werden im Browserfenster wie bei einer normalen lokalen Installation angezeigt. Internet Explorer. die von der Installationsroutine nach dem anfänglichen Bootvor- Installation mit entferntem Zugriff 55 .Wenn Sie die Verbindung zum Installationsprogramm mithilfe eines Webbrowsers herstellen. Vorbereiten der SSH-Installation Zusätzlich zum Installieren der entsprechenden Softwarepakete (OpenSSH für Linux und PuTTY für Windows) müssen Sie nur die entsprechenden Boot-Optionen übergeben.

gang auf der Konsole angezeigt wird. 5 Geben Sie yast ein. geben Sie root ein. Wenn Sie sich erfolgreich authentifiziert haben. geben Sie das Passwort ein. die diesem Host in der DHCP-Serverkonfiguration zugewiesen wurde. wird eine Befehlszeilenaufforderung für das Installationsziel angezeigt. Es wird ein Fenster geöffnet. 4 Wenn Sie zur Eingabe eines Passworts aufgefordert werden. um das Installationsprogramm zu starten. 2 Geben Sie an der Befehlszeile den folgenden Befehl ein: ssh -X root@IP-Adresse_Ziel Ersetzen Sie IP-Adresse_Ziel durch die IP-Adresse des Installationsziels. das mit der SSH-Boot-Option festgelegt wurde. 56 Referenz . 3 Wenn Sie zur Eingabe eines Benutzernamens aufgefordert werden. in dem die üblichen YaST-Bildschirme wie in Kapitel Installation mit YaST (↑Start) beschrieben angezeigt werden. Verwenden Sie andernfalls die IP-Adresse.

Stromausfälle und fehlerhafte Befehle. bevor Sie LVM implementieren oder Volumes neu konfigurieren. Leistung und Fehlertoleranz. Ein RAID (Redundant Array of Independent Disks) bietet verbesserte Datenintegrität. 60) erfahren Sie. „LVMKonfiguration mit YaST“ (S. das viel flexibler als die physische Partitionierung in Standardkonfigurationen ist.1. In Abschnitt 2.2. Das Logical Volume Management (LVM) ist ein Schema für die Festplattenpartitionierung. Risiken umfassen auch Anwendungsausfälle. mit denen es in vielen Situationen nützlich ist.1 LVM-Konfiguration Dieser Abschnitt erläutert kurz die Prinzipien von LVM und seinen grundlegenden Funktionen. Fortgeschrittene Festplattenkonfiguration 57 .Fortgeschrittene Festplattenkonfiguration Komplexe Systemkonfigurationen erfordern besondere Festplattenkonfigurationen. Mithilfe seiner Snapshot-Funktionalität können Sie problemlos Daten-Backups erstellen. Arbeiten Sie nie ohne Backup. WARNUNG Der Einsatz von LVM kann mit einem höheren Risiko (etwa des Datenverlusts) verbunden sein. Speichern Sie Ihre Daten. 2 2. Um eine persistente Gerätebenennung für SCSI-Geräte zu ermöglichen. wie LVM mit YaST eingerichtet wird. verwenden Sie ein bestimmtes Startskript oder udev.

Hintergrundinformationen zum physischen Partitionieren erhalten Sie in „Partitionstypen“ (Kapitel 1. VG 1 enthält zwei Partitionen von DISK 1 und eine von DISK 2. Da es schwierig ist. ↑Start) und Abschnitt „Partitionierung“ (Kapitel 2.1. Es wurden zwei LVM-Volume-Gruppen (VG 1 und VG 2) angelegt. bietet LVM einen virtuellen Pool (Volume-Gruppe. die in einer Volume-Gruppe zusammengefasst sind. In LVM werden die physischen Festplattenpartitionen. von denen jede einen Einhängepunkt (MP) hat. „Physische Partitionierung versus LVM“ (S. Installation mit YaST. kurz: VG) an Speicherplatz.1 Der Logical Volume Manager Der Logical Volume Manager (LVM) ermöglicht eine flexible Verteilung von Festplattenspeicher über mehrere Dateisysteme. Auf der linken Seite wurde eine einzelne Festplatte in drei physische Partitionen (PART) aufgeteilt.1. ↑Start). da gelegentlich die Segmentierung des Festplattenspeichers geändert werden muss.2. Auf diese Weise bietet LVM eine Art Abstraktion vom physischen Festplattenplatz. Er wurde entwickelt. als physische Volumes 58 Referenz . Auf der rechten Seite wurden zwei Festplatten in zwei bzw. drei physische Partitionen aufgeteilt. Partitionen in einem laufenden System zu ändern. der eine viel einfachere und sicherere Möglichkeit zur Änderung der Aufteilung ermöglicht als die physische Umpartitionierung. Abbildung 2. 58) stellt die physische Partitionierung (links) der LVM-Segmentierung (rechts) gegenüber. nachdem die erste Partitionierung bei der Installation abgeschlossen wurde. aus dem bei Bedarf logische Volumes (LVs) erzeugt werden können.1 Physische Partitionierung versus LVM DATENTRÄGER TEIL TEIL TEIL DATENTRÄGER 1 TEIL TEIL VG 1 DATENTRÄGER 2 TEIL TEIL TEIL VG 2 LV 1 LV 2 LV 3 LV 4 MP MP MP MP MP MP MP Abbildung 2. Das Betriebssystem greift dann auf diese logischen Volumes statt auf physische Partitionen zu. VG 2 enthält die restlichen zwei Partitionen von DISK 2. Volume-Gruppen können sich über mehr als eine Festplatte erstrecken. auf den das Betriebssystem zugreifen kann. wobei mehrere Festplatten oder Teile davon eine einzige VG bilden können. Systemkonfiguration mit YaST.

• Es ist möglich. Musikarchiven oder Benutzerverzeichnissen. LVM-Funktionen: • Mehrere Festplatten/Partitionen können zu einem großen logischen Volume zusammengefügt werden. Er verwendet den Device-Mapper. • Die Snapshot-Funktion ermöglicht vor allem bei Servern konsistente Backups im laufenden System. Wenn Sie einen wachsenden Datenbestand haben wie bei Datenbanken. der den Datenstrom eines logischen Volumes über mehrere physische Volumes verteilt. einen „Striping-Modus“ zu aktivieren. bietet sich der Logical Volume Manager an. Dies wird in diesem Beispiel durch die Grenze zwischen LV 1 und LV 2 veranschaulicht. • Neigt sich bei einem LV (z. Ein weiterer Vorteil des LVM ist die Möglichkeit. ob Sie das neue Format oder die abwärtskompatible Version verwenden möchten. Dann ist es möglich. die für solche Aktionen geeignet ist. Ab Kernel Version 2. Beachten Sie jedoch.6 inteFortgeschrittene Festplattenkonfiguration 59 .(PV) bezeichnet. /usr) der freie Platz dem Ende zu. Anleitungen und weiterführende Informationen zur Konfiguration des LVM finden Sie im offiziellen LVM-Howto unter http://tldp. Die Grenzen zwischen verschiedenen logischen Volumes müssen sich nicht mit den Partitionsgrenzen decken. Er ist abwärtskompatibel zum bisherigen LVM und kann alte Volume-Gruppen weiter verwalten. müssen Sie entscheiden.6 steht Ihnen LVM in der Version 2 zur Verfügung. Dateisysteme zu haben. Aufgrund dieser Eigenschaften lohnt sich der Einsatz von LVM bereits bei umfangreich genutzten Home-PCs oder kleinen Servern. der in Kernel 2. Voraussetzung ist allerdings hotswap-fähige Hardware. bis zu 256 LVs anlegen zu können. dass sich die Arbeit mit dem LVM sehr von der mit konventionellen Partitionen unterscheidet. kann dies die Leseund Schreibgeschwindigkeit wie bei RAID 0 verbessern. • Mit dem LVM können Sie sogar im laufenden System Festplatten oder LVs hinzufügen. die größer sind als eine physische Festplatte. Wenn sich diese physischen Volumes auf verschiedenen Festplatten befinden. die vom Betriebssystem über die zugewiesenen Einhängepunkte benutzt werden können. können Sie dieses bei geeigneter Konfiguration vergrößern. In den Volume-Gruppen wurden vier logische Volumes (LV 1 bis LV 4) angelegt. B. LVM 2 benötigt keine Kernel-Patches mehr.org/HOWTO/LVM-HOWTO/. Wenn Sie neue Volume-Gruppen anlegen.

Gewöhnlich ist jedoch eine Volume-Gruppe ausreichend. 2. die mit LVM verwendet werden sollen. Sie erstellen eine LVM-Partition.2. auf der sich die Dateien des SUSE LINUX Systems befinden. wenn Sie größere logische Volumes als 256 GB benötigen.griert ist. Erstellen von Volume-Gruppen Wenn auf Ihrem System noch keine Volume-Gruppe existiert. Mit diesem Partitionierungswerkzeug können Sie vorhandene Partitionen bearbeiten und löschen sowie neue Partitionen erstellen. In diesem Kapitel ist mit LVM daher immer LVM in der Version 2 gemeint. Dieser Wert wird normalerweise auf 4 MB festgelegt. Nachdem Sie alle mit LVM zu verwendenden Partitionen erstellt haben. indem Sie zunächst auf Anlegen → Nicht formatieren klicken und anschließend 0x8E Linux LVM als Partitions-ID wählen. 16 oder 32 GB). Die Physical Extent Size bestimmt die maximale Größe eines physischen Blocks in der Volume-Gruppe. Zusätzliche Gruppen können mit Gruppe hinzufügen hinzugefügt werden. B. eine anzulegen (siehe Abbildung 2. um mit der Konfiguration von LVM zu beginnen. Als Name für die Volume-Gruppe.1. Beginnend mit diesem Kernel kann LVM nur noch in der Version 2 verwendet werden. ↑Start)). 60 Referenz .2 LVM-Konfiguration mit YaST Zur LVM-Konfiguration mit YaST gelangen Sie über den YaST-Expertenmodus des Partitionierungsmoduls (siehe Abschnitt „Partitionierung“ (Kapitel 2. Sie sollten die Physical Extent Size also nur dann erhöhen (z. Der gesamte Plattenplatz in einer Volume-Gruppe wird in Blöcken dieser Größe verwaltet. Systemkonfiguration mit YaST. Dies lässt eine Maximalgröße für ein physisches und logisches Volume von 256 GB zu. werden Sie aufgefordert. wird system vorgeschlagen. „Anlegen einer Volume-Gruppe“ (S. klicken Sie auf LVM. auf 8. 61)).

denen keine Partitionen mehr zugeordnet sind. Fortgeschrittene Festplattenkonfiguration 61 . Wenn eine Partition bereits einer VolumeGruppe zugeordnet ist. Nicht zugewiesene Partitionen sind mit „--“ gekennzeichnet. wird der Name der Volume-Gruppe in der Liste angezeigt. listet das folgende Dialogfeld alle Partitionen auf. stellen Sie die aktuelle Volume-Gruppe im Auswahlfeld links oben ein. zusätzliche Volume-Gruppen anzulegen und bestehende Volume-Gruppen zu löschen. Partitionen. die einer Volume-Gruppe zugeordnet sind.oder DOS-Partitionen werden nicht angezeigt. werden auch physische Volumes (PV) genannt.Abbildung 2. Swap. Falls es mehrere Volume-Gruppen gibt. Es können allerdings nur solche Volume-Gruppen gelöscht werden.2 Anlegen einer Volume-Gruppe Konfigurieren von physischen Volumes Sobald eine Volume-Gruppe angelegt wurde. Mit den Schaltflächen rechts oben ist es möglich. die entweder den Typ „Linux LVM“ oder „Linux native“ haben.

klicken Sie zuerst auf die Partition und anschließend auf Volume hinzufügen. denen ein Einhängepunkt zugewiesen wurde.Abbildung 2. bestimmen Sie im nächsten Dialogfeld die logischen Volumes. einer Volume-Gruppe zuordnen. Konfigurieren von logischen Volumes Nachdem die Volume-Gruppe mit physischen Volumes gefüllt ist. Die Liste darunter enthält alle logischen Volumes in der Volume-Gruppe. Anderenfalls bleibt der Speicherplatz in den Partitionen unbenutzt.3 Setup für physische Volumes Um der ausgewählten Volume-Gruppe eine zuvor nicht zugewiesene Partition zuzuweisen. alle Swap-Partitionen und alle existierenden logischen Volumes werden hier aufgeführt. Sie können nach Bedarf logische Volumes mithilfe der entsprechenden Schaltflächen Hinzufügen. die Sie für LVM vorgesehen haben. klicken Sie auf Weiter. Nachdem Sie alle physischen Volumes zugeordnet haben. bis 62 Referenz . Der verfügbare Platz in der aktuellen Volume-Gruppe wird daneben angezeigt. Alle normalen Linux-Partitionen. die das Betriebssystem benutzen soll. muss jeder Volume-Gruppe mindestens ein physisches Volume zugeordnet sein. Sie sollten alle Partitionen. Bevor Sie das Dialogfeld schließen können. Wählen Sie im Auswahlfeld oben links die aktuelle Volume-Gruppe. um zur Konfiguration der logischen Volumes zu gelangen. Bearbeiten und Entfernen. Der Name der Volume-Gruppe wird dann bei der ausgewählten Partition eingetragen.

wenn der von dem LV benötigte Festplattenplatz gleichmäßig über n physische Volumes verteilt werden kann. den Datenfluss im logischen Volume über verschiedene physische Volumes zu verteilen (Striping). verbessert dies in der Regel die Lese. das Dateisystem und der Einhängepunkt eingegeben werden. Wenn sich diese physischen Volumes auf verschiedenen Festplatten befinden. Fortgeschrittene Festplattenkonfiguration 63 .der Platz in der Volume-Gruppe verbraucht ist. Es ist auch möglich. klicken Sie auf Hinzufügen und füllen das anschließende Popup-Fenster aus. Abbildung 2. ist ein logisches Volume mit drei Stripes nicht möglich. Ein Striping-LV mit n Stripes kann jedoch nur richtig angelegt werden. Sind beispielsweise nur zwei physische Volumes verfügbar.und Schreibgeschwindigkeit (wie bei RAID 0). Normalerweise wird in einem logischen Volume ein Dateisystem wie reiserfs oder ext2 erstellt und ein Einhängepunkt wird festgelegt. Die auf diesem logischen Volume gespeicherten Dateien sind dann im installierten System an diesem Einhängepunkt zu finden. Weisen Sie jeder Volume-Gruppe mindestens ein logisches Volume zu. Wie bei der Partitionierung kann die Größe.4 Verwaltung der logischen Volumes Um ein neues logisches Volume anzulegen.

weisen Sie diesen logischen Volumes passende Einhängepunkte zu. wenn LVM auf der Festplatte in Betrieb genommen wird. gibt es eine alternative Methode. 64 Referenz . Sie können Ihr LVM-System mit den oben beschriebenen Methoden verwalten. Direkte Verwaltung von LVM Falls Sie LVM bereits konfiguriert haben und lediglich etwas ändern möchten. Klicken Sie auf Weiter.5 Erstellen logischer Volumes Falls Sie auf Ihrem System LVM bereits konfiguriert haben. Fehler an dieser Stelle können erst festgestellt werden. Wählen Sie im YaST-Kontrollzentrum System → LVM. mit Ausnahme der physischen Partitionierung.WARNUNG: Striping YaST hat zurzeit keine Möglichkeit. Abbildung 2. Im Wesentlichen erlaubt dieses Dialogfeld dieselben Aktionen wie oben beschrieben. Es zeigt die vorhandenen physischen Volumes und logischen Volumes in zwei Listen an. um in den YaSTExpertenmodus für Partitionierung zu gelangen und Ihre Arbeit abzuschließen. können Sie jetzt die vorhandenen logischen Volumes eingeben. Bevor Sie fortfahren. die Richtigkeit Ihrer Angaben zum Striping zu überprüfen.

da es keine Datensicherheit gibt. Vorteile und Merkmale auf. Dies wird als Festplattenspiegelung bezeichnet. die IDE. 2. können alle anderen fehler- Fortgeschrittene Festplattenkonfiguration 65 . steht eine Kopie des Inhalts auf einer anderen zur Verfügung.2. RAID 1 Dieser Level bietet eine ausreichende Sicherheit für die Daten. Dies geht allerdings zu Lasten von Prozessorzeit und Arbeitsspeicher. Ist eine Festplatte zerstört. Die Leistung ist zwar sehr gut. mehrere Festplattenpartitionen in einer großen virtuellen Festplatte zusammenzufassen. weil diese 1:1 auf eine andere Festplatte kopiert werden. mithilfe von YaST mehrere Festplatten zu einem Soft-RAID-System zu vereinen – eine sehr günstige Alternative zu einem Hardware-RAID. doch die Bezeichnung RAID 0 hat sich für diese Art von System eingebürgert. da es im Vergleich zum IDE-Protokoll eine größere Anzahl an Festplatten effektiver ansteuern kann und besser für eine parallele Verarbeitung der Befehle geeignet ist. Es gibt folgende gängige RAID-Level: RAID 0 Dieser Level verbessert die Leistung des Datenzugriffs. Im Grunde ist dies gar kein RAID. In RAID-Systemen gibt es mehrere Strategien für das Kombinieren mehrerer Festplatten in einem RAID-System. Jede diese Strategien weist dabei andere Ziele.2. indem er die einzelnen Dateiblöcke über mehrere Festplattenlaufwerke verteilt. Bei RAID 0 werden mindestens zwei Festplatten zusammengefasst. Die meisten RAID-Controller verwenden das SCSI-Protokoll. Soft RAID bietet die Vorteile von RAID-Systemen ohne die zusätzlichen Kosten für hardwareseitige RAID-Controller. um die Leistung und/oder die Datensicherheit zu optimieren.1 RAID-Level SUSE Linux bietet Ihnen die Möglichkeit.oder SATA-Festplatten unterstützen. ist das RAID-System zerstört und Ihre Daten sind verloren.2 Soft-RAID-Konfiguration Der Sinn eines RAID (Redundant Array of Independent Disks) ist es. Solange noch eine Festplatte intakt ist. aber wenn auch nur eine der Festplatten ausfällt. Es gibt einige RAID-Controller. weshalb Soft RAID für Hochleistungssysteme nicht wirklich geeignet ist. Diese Variationen werden im Allgemeinen als RAIDLevel bezeichnet.

66 Referenz . Die Paritätsdaten werden im Fall eines Festplattenfehlers zum Erstellen einer Ersatzfestplatte verwendet. RAID 4 Level 4 verteilt die Daten auf Blockebene wie bei Level 0. Die Schreibleistung leidet durch den Kopiervorgang im Vergleich zu einer normalen physischen Festplatte ein wenig (10 bis 20 % langsamer). Wird der Schaden jedoch nicht festgestellt. Bei RAID 5 ist zu beachten. wobei diese Vorgehensweise mit einer dedizierten Paritätsfestplatte kombiniert wird. Erst dadurch geht die Integrität der Daten wirklich verloren.haft sein. Diese beiden Level werden nur selten verwendet. Weitere RAID-Level Es wurden noch weitere RAID-Level entwickelt (RAIDn. Level 2 verteilt die Daten auf Bit. Wenn eine Festplatte ausfällt. Die Daten werden wie bei RAID 0 über die Festplatten verteilt. RAID 0+1. kann es passieren. da sonst Datenverlust droht. die bei RAID 5 auf einer der Partitionen angelegt werden.und nicht auf Blockebene. dass RAID 1 fast eine doppelt so schnelle Transaktionsrate und nahezu dieselbe Schreibgeschwindigkeit wie einzelne Festplatten bieten. wobei einige von diesen proprietäre Implementierungen verschiedener Hardwarehersteller sind. dafür ist der Lesezugriff deutlich schneller. Dennoch wird Level 4 gelegentlich eingesetzt. Level 3 bietet Byte-basiertes Verteilen mit einer dedizierten Paritätsfestplatte und kann nicht gleichzeitig mehrere Anforderungen verarbeiten. muss sie schnellstmöglich ausgetauscht werden. Diese Level sind nicht sehr weit verbreitet und werden aus diesem Grund hier nicht näher beschrieben. sodass sich beim Ausfall einer Partition durch den dazugehörigen Paritätsblock der Inhalt rekonstruieren lässt. RAID 50 usw. Für die Sicherheit sorgen die Paritätsblöcke. Die Paritätsfestplatte kann beim Schreibzugriff jedoch Engpässe verursachen. RAID 30. RAID 5 RAID 5 ist ein optimierter Kompromiss aus Level 0 und Level 1. dass die beschädigten Daten auf die intakte Festplatte gespiegelt werden. weil die Daten doppelt vorhanden sind und somit parallel ausgelesen werden können. RAID 2 und RAID 3 Dies sind keine typischen RAID-Implementierungen. Im Allgemeinen kann gesagt werden. Diese werden mit XOR miteinander verknüpft.). RAID 10. dass nicht mehrere Festplatten gleichzeitig ausfallen dürfen. was Leistung und Redundanz betrifft. ohne dass Daten verloren gehen. Der nutzbare Festplattenplatz entspricht der Anzahl der eingesetzten Festplatten minus einer.

2 Soft-RAID-Konfiguration mit YaST Zur Soft-RAID-Konfiguration gelangen Sie über den YaST-Expertenmodus des Partitionierungsmoduls. werden im folgenden Dialogfeld alle Partitionen entweder mit dem Typ „Linux RAID“ oder „Linux native“ angezeigt (siehe Abbildung 2. „RAID-Partitionen“ (S. die mit Soft-RAID verwendet werden sollen. der in Abschnitt „Partitionierung“ (Kapitel 2. klicken Sie auf RAID → RAID anlegen. Die einzelnen Partitionen eines RAIDs sollten auf verschiedenen Festplatten liegen.6.oder DOS-Partitionen werden nicht angezeigt. 65)). /dev/md0) angezeigt. Sie erstellen die RAID-Partitionen.2.2. nur Partitionen gleicher Größe zu verwenden. Fortgeschrittene Festplattenkonfiguration 67 . 68)). die Leistung bei RAID 0 optimiert wird. damit das Risiko eines Datenverlusts durch den Defekt einer Festplatte (bei RAID 1 und 5) verhindert bzw.2. Nicht zugewiesene Partitionen sind mit „--“ gekennzeichnet. Mit diesem Partitionierungswerkzeug können Sie vorhandene Partitionen bearbeiten und löschen sowie neue Partitionen erstellen. Für RAID 5 sind mindestens drei Partitionen erforderlich. B. 1 und 5 (weitere Informationen hierzu finden Sie in Abschnitt 2. ↑Start) beschrieben ist. Swap. wird in der Liste der Name des RAIDGeräts (z. Wählen Sie im nächsten Dialogfeld zwischen RAID-Level 0. Wenn Sie auf Weiter klicken. indem Sie zunächst auf Anlegen → Nicht formatieren klicken und anschließend 0xFD Linux RAID als Partitions-ID wählen. Es wird empfohlen. für RAID 1 in der Regel exakt zwei. Für RAID 0 und RAID 1 sind mindestens zwei Partitionen erforderlich. Systemkonfiguration mit YaST.1. um die RAID-Konfiguration zu starten. Wenn Sie alle gewünschten Partitionen erstellt haben. Wenn eine Partition einem RAID-Volume bereits zugewiesen ist. „RAID-Level“ (S.

um das Einstellungsdialogfeld aufzurufen. Anderenfalls bleibt der Speicherplatz in den Partitionen unbenutzt.7. klicken Sie zuerst auf die Partition und anschließend auf Hinzufügen. 68 Referenz .6 RAID-Partitionen Um dem ausgewählten RAID-Volume eine zuvor nicht zugewiesene Partition zuzuweisen. Der Name des RAID-Geräts wird dann zur ausgewählten Partition hinzugefügt. „Dateisystemeinstellungen“ (S. Klicken Sie nach dem Zuweisen aller Partitionen auf Weiter. Weisen Sie alle für RAID reservierten Partitionen zu. in dem Sie die Leistung optimieren können (siehe Abbildung 2.Abbildung 2. 69)).

3 Fehlerbehebung Prüfen Sie die Datei /proc/mdstats. ob eine RAID-Partition zerstört ist.Abbildung 2. um festzustellen. Wenn Sie die Konfiguration mit Beenden abgeschlossen haben. Starten Sie das System anschließend neu und geben Sie den Befehl mdadm /dev/mdX --add /dev/sdX ein. 2. Ihr LinuxSystem herunterzufahren und die defekte Festplatte durch eine neue. gleichartig partitionierte Platte zu ersetzen. Ersetzen Sie „X“ durch die entsprechende Geräte-ID. sind im Expertenmodus des Partitionierungsmoduls das Gerät /dev/md0 und andere Geräte mit RAID gekennzeichnet. dass die RAIDPartitionen als solche beim Booten erkannt werden. Durch Aktivieren der Option Persistenter Superblock wird gewährleistet. Grundsätzliche Vorgehensweise bei einem Systemfehler ist es.2. Damit wird die neue Festplatte automatisch in das RAIDSystem integriert und vollautomatisch rekonstruiert. Fortgeschrittene Festplattenkonfiguration 69 .7 Dateisystemeinstellungen Legen Sie wie bei der konventionellen Partitionierung das zu verwendende Dateisystem sowie die Verschlüsselung und den Einhängepunkt für das RAID-Volume fest.

tldp.2.html • http://en.2.org/HOWTO/Software-RAID-HOWTO.4 Weitere Informationen Weitere Informationen sowie eine Anleitung zur Konfiguration von Soft-RAID finden Sie in den angegebenen HOWTO-Dokumenten unter: • /usr/share/doc/packages/raidtools/Software-RAID.com/?l=linux-raid&r=1&w=2.theaimsgroup.HOWTO . 70 Referenz .html Linux-RAID-Mailinglisten sind beispielsweise unter folgender URL verfügbar: http://marc.

3 3. ohne es vollständig neu zu installieren. Dies gilt hauptsächlich für die in /etc gespeicherten Dateien sowie einige der Verzeichisse und Dateien in /var und /opt. die Benutzerdaten in /home (den HOME-Verzeichnissen) auf ein Sicherungsmedium zu schreiben. eine Wechselfestplatte. dass demnächst kein Speicherplatz mehr zur Verfügung steht. Es gibt keine Faustregel hinsichtlich des Speicherplatzes einzelner Partitionen. Man unterscheidet zwischen zwei Arten von Aktualisierungen: die Aktualisierung einzelner Software-Pakete und die Aktualisierung des gesamten Systems.1 Aktualisieren von SUSE Linux Software weist normalerweise von Version zu Version mehr „Umfang“ auf. Wenn Sie befürchten. ein bestehendes System zu aktualisieren. Die Platzanforderungen werden durch Ihr jeweiliges Partitionierungsprofil. sichern Sie die Daten vor der Aktualisierung und partitionieren Sie Ihr System neu. Folglich sollten Sie vor dem Aktualisieren mit df den verfügbaren Plattenplatz überprüfen. Zudem empfiehlt es sich. beispielsweise ein Bandlaufwerk (Streamer). einen USB-Stick oder ein ZIP-Laufwerk. die ausgewählte Software sowie die Versionsnummer von SUSE Linux bestimmt. Melden Sie sich zur Aktualisieren des Systems und Paketverwaltung 71 .1 Vorbereitung Kopieren Sie vor der Aktualisierung die alten Konfigurationsdateien auf ein separates Medium. 3. Pakete können auch manuell mithilfe des RPM-Paket-Managers verwaltet werden. um die Daten zu sichern.1.Aktualisieren des Systems und Paketverwaltung SUSE Linux bietet die Möglichkeit.

wenn Sie PostgreSQL bereits vor der Aktualisierung verwendet haben. In Beispiel 3. die vor dem Beginn der Systemaktualisierung überprüft werden müssen. 72) ist /dev/hda3 die Stammpartition. PostgreSQL Führen Sie vor der Aktualisierung von PostgreSQL (postgres) den dump-Vorgang für die Datenbanken durch. 72 Referenz . Beispiel 3. „Über df -h angezeigte Liste“ (S. Überprüfen von „passwd“ und „group“ in „/etc“ Stellen Sie vor dem Aktualisieren des Systems sicher. Notieren Sie sich vor der Aktualisierung die Stammpartition. Mit dem Befehl df / können Sie den Gerätenamen der Stammpartition anzeigen. Nachfolgend sind weitere Punkte aufgeführt.Sicherung dieser Daten als root an. Nur Benutzer root verfügt über die Leseberechtigung für alle lokalen Dateien.1G 57% /windows/D 3. die Sie sich notieren sollten (eingehängt als /). ermittelt YaST die erforderlichen Änderungen und wendet sie an. Abhängig von den individuellen Anpassungen.2 Potenzielle Probleme Wenn Sie ein standardmäßiges System von der Vorgängerversion auf diese Version aktualisieren. Rufen Sie hierzu die Überprüfungs-Dienstprogramme pwck und grpck als root auf und beseitigen Sie sämtliche gemeldeten Fehler. Ihre Sicherungsdaten zurückzukopieren. die Sie vorgenommen haben.1. dass /etc/passwd und /etc/ group keine Syntaxfehler enthalten.8G 111G 5% /home 1.6G 2.6G Used Avail Use% Mounted on 22G 53G 29% / 0 506M 0% /dev/shm 5. Dies ist nur erforderlich. kommt es bei einigen Schritten der vollständigen Aktualisierung zu Problemen und Ihnen bleibt nur die Möglichkeit.1.1 Über df -h angezeigte Liste Filesystem /dev/hda3 tmpfs /dev/hda5 /dev/hda1 /dev/hda2 Size 74G 506M 116G 39G 4.6G 37G 4% /windows/C 2. Ziehen Sie die Manualpage (Handbuchseite) zu pg_dump zurate.

wenn Sie über keine aktuelle Systemsicherung verfügen. wählen Sie die richtige Partition aus und bestätigen Sie mit Weiter (im Beispiel in Abschnitt 3.1. fahren Sie mit dem nächsten Schritt fort. Normalerweise können die Standardeinstellungen unverändert übernommen werden. Installation mit YaST. Es empfiehlt sich. beispielsweise Update basiert auf der Auswahl „Standard-System mit KDE“ oder „Standard-System mit GNOME“. Aktualisieren des Systems und Paketverwaltung 73 . Verwenden Sie diese Option. Wählen Sie nicht die Option Neuinstallation. 4 Geben Sie im daraufhin angezeigten Dialogfeld an. dass nur die bereits installierte Software aktualisiert werden soll oder dass dem System neue Software-Komponenten hinzugefügt werden sollen (Aufrüstungsmodus). Wenn nur eine vorhanden ist. ob mehrere Root-Partitionen vorhanden sind. die vorgeschlagene Kombination zu akzeptieren.3. 3 Passen Sie im Dialogfeld Installationseinstellungen die Einstellungen gemäß Ihren Anforderungen an. YaST liest die alte fstab auf dieser Partition. überprüfen Sie die in den Untermenüs von Software-Auswahl aufgeführten Pakete (und aktivieren Sie sie gegebenenfalls) oder fügen Sie die Unterstützung für zusätzliche Sprachen hinzu. um die hier aufgeführten Dateisysteme zu analysieren und einzuhängen. Wählen Sie in YaST eine Sprache aus und klicken Sie im Dialogfeld Installationsmodus auf Aktualisieren. „Vorbereitung“ (S. 2 YaST ermittelt. 71) wurde /dev/hda3 ausgewählt).1. Durch Sicherungen wird der Aktualisierungsvorgang verlangsamt. Wenn mehrere vorhanden sind. Sie haben zudem die Möglichkeit. „Vorbereitung“ (S. 71) erläuterte Vorbereitung kann Ihr System nun aktualisiert werden: 1 Booten Sie das System wie zu Installationszwecken (siehe Beschreibung in Abschnitt „Systemstart für die Installation“ (Kapitel 1.1. wenn Sie Ihr System jedoch erweitern möchten. Anpassungen sind zu einem späteren Zeitpunkt mit YaST möglich.1. verschiedene Systemkomponenten zu sichern.1. ↑Start)).3 Aktualisieren mit YaST Im Anschluss an die in Abschnitt 3.

Zahlreiche Pakete enthalten beispielsweise shared libraries.2 Software-Änderungen von Version zu Version Welche Aspekte sich zwischen den Versionen genau geändert haben.com/ products/linuxprofessional/downloads/ zur Verfügung (YaST Online Update (YOU)) – ziehen Sie Abschnitt „Online-Aktualisierung von Software“ (Kapitel 2. dass für den Gesamtbetrieb des Systems unerlässlich ist.1 Von 9.com) zurate 74 Referenz . Pakete dieser Art sollten nur im Aktualisierungsmodus aktualisiert werden. Wenn Sie ein Paket auswählen. dass die Konsistenz Ihres Systems stets gewährleistet ist.4 Aktualisieren einzelner Pakete Ungeachtet der insgesamt aktualisierten Umgebung ist die Aktualisierung einzelner Pakete stets möglich.suse. 3. ↑Start) zurate. Diese Zusammenfassung gibt beispielsweise Aufschluss darüber.0 auf 9.novell. die sich auf den täglichen Betrieb des Systems auswirken – entweder auf Benutzeroder Administratorebene – werden hier genannt. Nutzen Sie die unten aufgeführten Links. Wenn diese Programme und Anwendungen im aktiven System aktualisiert werden. Ratschläge zur Aktualisierung finden Sie unter http://www. 3. Ab diesem Punkt liegt es jedoch bei Ihnen.3. ob grundlegende Einstellungen vollkommen neu konfiguriert wurden. Signifikante Änderungen. ob Konfigurationsdateien an andere Speicherorte verschoben wurden oder ob es bedeutende Änderungen gängiger Anwendungen gegeben hat.2. Wichtige Aktualisierungen einzelner Pakete stehen unter http://www. Probleme und spezielle Aspekte der jeweiligen Version werden bei Bekanntwerdung online zur Verfügung gestellt. kann es zu Fehlfunktionen kommen. sicherzustellen.com/linux/download/updates/. geht aus den nachfolgenden Erläuterungen hervor.1 Ziehen Sie den Artikel „Bekannte Probleme und Besonderheiten in SUSE Linux 9.1“ (in der SUSE Support-Datenbank unter http://portal. gibt YaST eine Warnung aus. Systemkonfiguration mit YaST. Wählen Sie gemäß Ihren Anforderungen Komponenten in der YaST-Paketauswahl aus.novell.1.

• Module weisen das Suffix .6 unterstützt Standby und Ruhezustand mit ACPI. Diese Artikel werden für jede Version von SUSE Linux veröffentlicht. • Das Modul ide-scsi ist für das Brennen von CDs nicht mehr erforderlich. Aktualisieren des Systems und Paketverwaltung 75 . Diese Funktion befindet sich noch in der Testphase und wird von einigen Hardware-Komponenten möglicherweise nicht unterstützt. Beachten Sie folgende Details: • Das Laden von Modulen wird über die Datei /etc/modprobe. ob die Datei /etc/fstab den alten Parameternamen enthält. YaST versucht. Einhängen von VFAT-Partitionen Beim Einhängen von VFAT-Partitionen muss der Parameter code in codepage geändert werden. • sysfs ergänzt nun das /proc-Dateisystem. • Die Energieverwaltung (insbesondere ACPI) wurde verbessert und kann mithilfe eines YaST-Moduls konfiguriert werden.4 nicht funktionsfähig sind.conf konfiguriert. da die enthaltenen Anwendungen mit Kernel 2.6. Die Vorgängerversion. Wenn beim Einhängen einer VFAT-Partition Probleme auftreten. 2.4. die Datei zu konvertieren (siehe auch Skript /sbin/generate-modprobe. Die Datei /etc/modules.(Schlüsselwort: Besonderheiten). Standby und Ruhezustand mit ACPI Kernel 2. • Das Präfix snd_ wurde von den Optionen des ALSA-Soundmoduls entfernt. Zur Verwendung dieser Funktion benötigen Sie das powersave-Paket.ko auf. Ein grafisches Frontend steht im kpowersave-Paket zur Verfügung. Upgrade auf Kernel 2.conf ist veraltet. kann nicht mehr verwendet werden. überprüfen Sie.6 SUSE Linux basiert nun vollständig auf Kernel 2.conf). Informationen zu diesem Paket finden Sie in /usr/share/ doc/packages/powersave.

müssen mit linuxthreads oder NPTL (Native POSIX Thread Library) kompiliert werden. Alle betroffenen Anwendungen. NPTL ist mit der älteren linuxthreads-Bibliothek binärkompatibel. um zur Verwendung der linuxthreads-Bibliothek aufzufordern. i586): linuxthreads ohne Floating Stacks 2.1 (AMD64.h. h_errno und _res verwenden. NPTL ist der Vorzug zu geben. kann die ältere linuxthreads-Implementierung verwendet werden. die nicht im Lieferumfang von SUSE Linux enthalten sind.1“ in der Support-Datenbank unter http://portal. Native POSIX Thread Library und glibc 2. i686):. in denen linuxthreads gegen 76 Referenz .x Mit NGPT (Next Generation POSIX Threading) verknüpfte Anwendungen können mit glibc 2.3.1 verwendet werden. i586. Für Bereiche. da dies der Standard für die Zukunft ist.1 als Thread-Paket enthalten.3. Bei C++-Programmen mit MultithreadUnterstützung.4.5 (i386.4. Wenn NPTL zu Problemen führt. IPF.1 (AMD64. und zwar unter Verwendung folgender Umgebungsvariable (ersetzen Sie kernel-version durch die Versionsnummer des entsprechenden Kernel): LD_ASSUME_KERNEL=kernel-version Folgende Versionsnummern sind möglich: 2. i686): linuxthread mit Floating Stacks Hinweise zu Kernel und linuxthreads mit Floating Stacks: Anwendungen.h. netdb. i586. die Threads abbrechen (Thread Cancellation) verwenden.h) mit #include enthalten.4.x nicht verwendet werden.suse. and resolv. s390x. muss die Umgebungsvariable LD_ASSUME_KERNEL=2. Anpassungen für Native POSIX Thread Library NPTL ist in SUSE Linux 9.Eingabegeräte Ziehen Sie hinsichtlich der Änderungen in Bezug auf Eingabegeräte den bereits erwähnten Portal-Artikel „Bekannte Probleme und Besonderheiten in SUSE Linux 9.com zurate (Schlüsselwort: Besonderheiten). müssen die Header-Dateien (errno. 2.2. die errno.

Die Gerätekonfigurationen befinden sich in /etc/sysconfig/hardware. Die von diesen Geräten bereitgestellten Schnittstellen befinden sich normalerweise in /etc/ sysconfig/network (mit unterschiedlichen Namen). beispielsweise die MAC-Adresse oder der PCI-Steckplatz. Jetzt sucht das System nach neuer Hardware und initialisiert sie umgehend.den POSIX-Standard verstößt. Top-Level-Domäne .0. Die detaillierte Beschreibung finden Sie in /usr/share/doc/packages/sysconfig/README. Da der Name einer Netzwerkschnittstelle dynamisch generiert wird und immer mehr HotPlug-Geräte verwendet werden. sind NPTL-Anpassungen erforderlich.local als „link-local“-Domäne Die Resolver-Bibliothek behandelt die Top-Level-Domäne . für die Benennung von Schnittstellenkonfigurationen verwendet. Dies ist eine inkompatible Änderung. Wenn die Domäne . Netzwerkschnittstellenkonfiguration Die Konfiguration der Netzwerkschnittstelle wurde verändert. Aus diesem Grund werden eindeutige Kennzeichnungen. Schnittstellennamen können sofort bei ihrer Anzeige verwendet werden. Dies umfasst Folgendes: Signalbehandlungssystem.local bereits in der Namenserverkonfiguration verwendet wird.local als „link-local“Domäne und sendet anstelle normaler DNS-Abfragen Multicast-DNS-Abfragen an die Multicast-Adresse 224. Port 5353. Die Konfigurationsdateien wurden neu benannt. Befehle wie ifup eth0 oder ifdown eth0 können weiterhin verwendet werden. Hierfür steht das YaST-Soundmodul zur Verfügung. auf diese Weise wird die Konfiguration der neuen Netzwerkschnittstelle ermöglicht. die Tatsache. dass getpid in allen Threads denselben Wert zurückgibt und dass mit pthread_atfork registrierte Thread-Behandlungsroutinen bei Verwendung von vfork nicht funktionieren. ist ein Name wie eth0 or eth1 für Konfigurationszwecke nicht mehr geeignet.0. Aktualisieren des Systems und Paketverwaltung 77 . Soundkonfiguration Nach einer Aktualisierung müssen die Soundkarten neu konfiguriert werden. Geben Sie als Benutzer root den Befehl /sbin/yast2 sound ein.251. Bisher wurde die Hardware im Anschluss an die Konfiguration einer nicht vorhandenen Schnittstelle initialisiert.

Konvertieren von Dateinamen in UTF-8 Dateien in zuvor erstellten Dateisystemen verwenden die UTF-8-Codierung für Dateinamen nicht (sofern nicht anders angegeben). Weitere Informationen zum MulticastDNS finden Sie unter http://www. Registrierung erforderlich). Weitere Informationen hierzu finden Sie unter http://www. werden sie entstellt.multicastdns. Bei einer Standardinstallation wird also ein Gebietsschema mit UTF-8-Codierung festgelegt.1-2001 == ISO/IEC 9945:2002). Das bisherige Verhalten kann mithilfe einer Umgebungsvariablen erzwungen werden: _POSIX2_VERSION=199209 Der neue Wert lautet 200112 und wird als Standard für _POSIX2_VERSION verwendet. head. beispielsweise en_US.org angezeigt werden (kostenlos. jedoch mit dem POSIX-Standard von 2001 kompatibel (Single UNIX Specification.verwenden Sie einen anderen Domänennamen. In diesem Fall wird die Umgebungsvariable wie oben beschrieben festgelegt. sort usw. Wenn diese Dateinamen NichtASCII-Zeichen enthalten. chown.suse . Der SUS-Standard kann unter http://www.org. Verwenden Sie zur Korrektur das convmv-Skript. Systemübergreifende UTF-8-Codierung UTF-8 ist die standardmäßige Codierung für das System. Mit dem POSIX-Standard von 2001 kompatible Shell-Werkzeuge In der Standardeinstellung sind Shell-Werkzeuge aus dem coreutils-Paket (tail. 78 Referenz .) nicht mehr mit dem POSIX-Standard von 1992.UTF-8. Version 3 == IEEE Std 1003.html.unix. TIPP Drittanbieter-Software ist möglicherweise noch nicht mit dem neuen Standard kompatibel. mit dem die Codierung von Dateinamen in UTF-8 erfolgt.de/~mfabian/suse-cjk/locales.

org/docs-2. OpenLDAP Da sich das Datenbankformat geändert hat. Im Rahmen der Aktualisierung versucht das System.3 durch Apache 2 Der Apache-Webserver (Version 1. Die detaillierte Dokumentation zu Version 2.update zur Verfügung. die mit dem bisherigen LDAP (Lightweight Directory Access Protocol)-Server möglich waren./etc/gshadow veraltet /etc/gshadow wird nicht mehr verwendet und wurde entfernt. Die Schema-Überprüfung wurde wesentlich verbessert.0/en/ zur Verfügung Bei einem System mit installiertem HTTP(Hypertext Transfer Protocol-)Server wird das Apache-Paket entfernt und Apache 2 installiert. • Von den meisten Werkzeugen. muss die Datenbank neu aufgebaut werden.3) wurde durch Apache 2 ersetzt. Deshalb sind einige nicht mit dem Standard kompatible Vorgänge. nun nicht mehr möglich. Aktualisieren des Systems und Paketverwaltung 79 . da diese Datei aus folgenden Gründen überflüssig ist: • Sie wird von glibc nicht unterstützt. Im Anschluss an die Installation stehen aktualisierungsbezogene Informationen in der Datei /usr/share/ doc/packages/openldap2/README. und zwar hinsichtlich der Zugriffssteuerungslisten (Access Control Lists. wird diese Datei nicht unterstützt und aus den angegebenen Gründen ignoriert. Es gibt jedoch sicherlich Fälle. Selbst die Shadow-Suite enthält keine Schnittstelle dieser Art.apache . Ersetzen von Apache 1. Die Syntax der Konfigurationsdatei hat sich teilweise geändert. die das Gruppenpasswort überprüfen. ACLs). Die Konfigurationsdateien aus /etc/httpd befinden sich nun in /etc/ apache2. • Es gibt keine offizielle Schnittstelle für diese Datei.0 steht auf der Webseite unter http://httpd. in denen die Konvertierung nicht möglich ist. Im Anschluss muss das System entweder mit YaST oder manuell angepasst werden. diese Konvertierung automatisch durchzuführen.

4.8p1) Anstelle von gssapi wird nun gssapi-with-mic unterstützt.x steht die winbind-Authentifizierung nicht mehr zur Verfügung. 510) detailliert erläutert. An Apache gerichtete Abfragen und von Apache erhaltene Antworten können mithilfe von Filtern verarbeitet werden. dem Multiprocessing-Modul (MPM). IPv6.x auf Samba 3. der es Modulprogrammierern ermöglicht. Von Samba 2. In früheren Versionen wurde sie anhand der Ladesequenz ermittelt.pl Weitere Informationen erhalten Sie unter http://www. dass die Seiten für Benutzer ohne Zugriffsberechtigungen angezeigt werden. OpenSSH-Aktualisierung (Version 3. Die beiden Versionen sind nicht 80 Referenz .x Nach der Aktualisierung von Samba 2. Aus diesem Grund wurden folgende Programme entfernt: /usr/sbin/wb_auth /usr/sbin/wb_ntlmauth /usr/sbin/wb_info_group. als Erstes geladen werden. Diese Eigenschaften werden in Abschnitt 26. das nur authentifizierten Benutzern den Zugriff auf bestimmte Ressourcen ermöglicht. Folglich ist für Apache 2 das apache2-prefork-Paket (aus Stabilitätsgründen empfohlen) oder das apache2-worker-Paket erforderlich.5.x auf Samba 3. die gewünschte Ladesequenz der Module anzugeben und den Benutzern diese Aufgabe abzunehmen. Es wurde ein Mechanismus implementiert. um zu verhindern. Die anderen Authentifizierungsmethoden können weiterhin verwendet werden.org/Doc/ FAQ/FAQ-23. Apache 2 unterstützt nun das neueste Internetprotokoll. Die Prozessverwaltung wird nun von einem unabhängigen Modul übernommen. Die Ausführungssequenz der Module ist häufig von großer Wichtigkeit.Für die Handhabung mehrerer gleichzeitiger Abfragen können entweder Threads oder Vorgänge ausgewählt werden.html#ss23. Dies betrifft sowohl die Leistung als auch die Verwendung von Modulen.squid-cache. Abhängig vom MPM werden Abfragen von Apache 2 unterschiedlich verarbeitet. um potenziellen MITM (Man In The Middle-)-Angriffen vorzubeugen.4. „Multiprocessing-Module“ (S. So muss beispielsweise ein Modul.

Wenn Sie das entsprechende Medium einhängen möchten. Folglich ist die Authentifizierung mit Kerberos-Tickets aus älteren Verteilungen nicht möglich. die von einem entfernten Host aus als normaler Benutzer (nicht root) ausgeführt werden. SSH. wenn der Benutzer die Standard-Gebietsschemata für root ändert (nur LC_CTYPE ist standardmäßig festgelegt). Wechseldatenträger mit subfs Wechseldatenträger werden nun mit subfs integriert.und Terminal-Anwendungen Wenn von einem entfernten Host aus eine Verbindung (insbesondere über SSH (Secure Socket Shell). XML-Ressourcen in /usr/share/xml XML-Ressourcen (DTDs. Dies wirkt sich auf YaST im Expertenmodus (Textmodus) und auf Anwendungen aus.0 und frühere Versionen. Der Grund dafür ist. in denen UTF-8 nicht aktiviert bzw.kompatibel. werden in Terminal-Anwendungen möglicherweise entstellte Zeichen angezeigt. Folglich werden die standardmäßigen Systemeinstellungen verwendet. nicht unterstützt wird) aufgebaut wird. wechseln Sie einfach zum entsprechenden Geräteverzeichnis in Aktualisieren des Systems und Paketverwaltung 81 .) werden in /usr/share/xml installiert. da andere Authentifizierungsmethoden zum Einsatz kommen. dass lokale Einstellungen von OpenSSH nicht weitergeleitet werden. Das manuelle Einhängen der Medien mit mount ist nicht mehr erforderlich. da libiodbc verworfen wurde. Die von root aufgerufenen Anwendungen sind nur betroffen. Sylesheets usw. libiodbc verworfen Benutzer von FreeRADIUS müssen Verbindungen ab sofort mit unixODBC herstellen. Wenn Probleme auftreten. die möglicherweise nicht mit den Einstellungen des entfernten Terminals übereinstimmen. Telnet und RSH (Remote Shell)) zwischen Version 9 (Standardkonfiguration mit aktivierter UTF-8-Codierung) und älteren Systemen (SUSE Linux 9. bearbeiten Sie Ihre Skripts und Makefiles oder verwenden Sie die offiziellen Kataloge (insbesondere /etc/xml/catalog oder /etc/sgml/ catalog). Folglich stehen einige Verzeichnisse in /usr/share/sgml nicht mehr zur Verfügung.

2 Von 9. KDE und IPv6-Unterstützung Standardmäßig ist die IPv6-Unterstützung für KDE (K Desktop Environment) nicht aktiviert.1 auf 9. Samba ("Netzwerkumgebung")./media. Mit YaST können Sie die Firewall-Einstellungen präzisieren. Sie kann mithilfe des /etc/sysconfig-Editors von YaST aktiviert werden.2“ (in der SUSE Support-Datenbank unter http://portal. da IPv6-Adressen nicht von allen Internetdienstanbietern (ISP) unterstützt werden und beim Surfen im Web Fehlermeldungen ausgegeben werden oder bei der Anzeige von Webseiten Verzögerungen auftreten. Wenn dies nicht erwünscht ist. 82 Referenz . Standardmäßig ist die Anmeldung bei entfernten Systemen nicht möglich. Wenn beim Installieren oder Konfigurieren eines Diensts auf das Netzwerk zugegriffen werden muss. Die Funktion wurde deaktiviert. beispielsweise SLP.und UDP (User Datagram Protocol)-Ports sämtlicher interner und externer Schnittstellen. Zudem werden das Suchen im Netzwerk sowie Multicast-Anwendungen.com) zurate (Schlüsselwort: Besonderheiten). kann der Benutzer die Ports im YaST-Modul schließen oder weitere detaillierte Firewall-Einstellungen angeben. solange ein Programm auf sie zugreift.suse. 3. Firewall-Aktivierung im Vorschlags-Dialogfeld bei der Installation Für erhöhte Sicherheit wird die integrierte Firewall-Lösung SUSEFirewall2 am Ende der Installation im Vorschlags-Dialogfeld aktiviert. sowie einige Spiele beeinträchtigt. dass sämtliche Ports anfänglich geschlossen sind und im Bedarfsfall über das Vorschlags-Dialogfeld geöffnet werden können. Dies bedeutet.2 Ziehen Sie den Artikel „Bekannte Probleme und Besonderheiten in SUSE Linux 9. öffnet das entsprechende YaST-Modul die benötigten TCP (Transmission Control Protocol).2. Medien können nicht ausgeworfen werden.

Tabelle 3. Umstellung auf X. ob YOU diese Delta-Pakete verwenden soll. Port 631/TCP und Port 631/UDP werden für CUPS (Common Unix Printing System) benötigt und sollten für den normalen Betrieb nicht geschlossen werden.Org Die Umstellung von XFree86 auf X. Konfiguration des Drucksystems Am Ende der Installation (Vorschlags-Dialogfeld) müssen die für das Drucksystem benötigten Ports in der Firewall-Konfiguration geöffnet sein. die den Zugriff auf wichtige Dateien und Befehle mit den alten Namen ermöglichen.YaST Online Update und Delta-Pakete YaST Online Update (YOU) unterstützt nun eine besondere Art von RPM-Paket. in dem nur die binäre Abweichung von einem bestimmten Basispaket gespeichert wird.Org wird über Kompatibilitätslinks ermöglicht. Port 515/TCP (für das alte LPD-(Line Printer Daemon-)Protokoll und die von Samba genutzten Ports müssen für das Drucken über LPD bzw. Diese Technik führt zu einer deutlich geringeren Paketgröße und weniger Zeitaufwand beim Herunterladen. SMB (Server Message Block) ebenfalls geöffnet sein. bei der Neuzusammenstellung des endgültigen Pakets kommt es jedoch zu einer höheren CPU-Auslastung. Technische Details finden Sie in /usr/share/doc/packages/deltarpm/README. Legen Sie in /etc/sysconfig/ onlineupdate fest.Org Xorg xorgconfig xorgcfg Aktualisieren des Systems und Paketverwaltung 83 .1 XFree86 XFree86 xf86config xf86cfg Befehle X.

insbesondere.0.log.old XFree86.old Bei der Umstellung auf X. die KDE.Org wurden die Pakete von XFree86* in xorg-x11* umbenannt. SUSE Linux stellt Standardterminals bereit. da sie entweder nicht mehr unterstützt werden oder in der Standardumgebung nicht funktionieren.0. da sie UTF8 nicht unterstützen.Org Xorg.log Xorg.und GNOME-Terminals und mlterm (Multilingual Terminal Emulator für X). Tabelle 3. die möglicherweise als Ersatz für aterm und eterm dienen.log XFree86. beispielsweise xterm. Änderungen im powersave-Paket Die Konfigurationsdateien in /etc/sysconfig/powersave wurden geändert. Terminal-Emulatoren für X11 Einige Terminal-Emulatoren wurden entfernt.3 Alt Aufgeteilte Konfigurationsdateien in /etc/sysconfig/powersave Jetzt aufgeteilt in /etc/sysconfig/powersave/ common common cpufreq events battery sleep 84 Referenz .0.Tabelle 3.2 XFree86 Protokolldateien in /var/log X.log.0.

Die Namen der sleep-Statusangaben wurden wie nachfolgend angegeben geändert. APM suspend) • suspend to ram (ACPI S3. „Aufgeteilte Konfigurationsdateien in /etc/sysconfig/powersave“ (S.org1. APM suspend) • standby (ACPI S1. APM suspend) • standby (ACPI S3. Wenn Sie die „event“-Variablen in /etc/ powersave.org (OOo) Verzeichnisse: OOo wird nun in /usr/lib/ooo-1. „Packer“ (S.4.3. Die neuen Namen sind aus Tabelle 3. Von: • suspend (ACPI S4. 86) ersichtlich. Packer: Es gibt einige neue Packer für das Aufrufen der OOo-Komponenten. muss deren Anpassung nun in /etc/ sysconfig/powersave/events erfolgen.1 anstelle von /opt/OpenOffice. Aktualisieren des Systems und Paketverwaltung 85 . APM standby) In: • suspend to disk (ACPI S4.conf geändert haben.1 ist nun anstelle von ~/OpenOffice.ooo-1.Alt Jetzt aufgeteilt in thermal /etc/powersave.org installiert. APM standby) OpenOffice. ~/.conf ist inzwischen veraltet.1 das Standardverzeichnis für Benutzereinstellungen. Bestehende Variablen wurden in die in Tabelle 3. 84) aufgeführten Tabellen verschoben.

und GNOME-(GNU Network Objekt Model Environment-)Symbolen. --messages-in-window und --quiet. Folgende Optionen werden nicht mehr unterstützt: --default-configuration. KDE. --skip-check.und GNOME-Erweiterungen stehen in den Paketen OpenOffice_org-kde und OpenOffice_org-gnome zur Verfügung. --lang (die Sprache wird nun anhand von Locales bestimmt). --java-path.4 Alt Packer Neu /usr/bin/oocalc /usr/bin/oodraw /usr/bin/ooimpress /usr/bin/oomath /usr/sbin/oopadmin – /usr/bin/oofromtemplate /usr/bin/ooweb /usr/bin/oowriter /usr/bin/ooffice /usr/bin/ooo-wrapper /usr/X11R6/bin/OOo-calc /usr/X11R6/bin/OOo-draw /usr/X11R6/bin/OOo-impress /usr/X11R6/bin/OOo-math /usr/X11R6/bin/OOo-padmin /usr/X11R6/bin/OOo-setup /usr/X11R6/bin/OOo-template /usr/X11R6/bin/OOo-web /usr/X11R6/bin/OOo-writer /usr/X11R6/bin/OOo /usr/X11R6/bin/OOo-wrapper Der Packer unterstützt nun die Option --icons-set für das Umschalten zwischen KDE. 86 Referenz .Tabelle 3.und GNOME-Unterstützung KDE. --gui.

Vor dem Installieren mehrerer Kernel empfiehlt es sich. Details finden Sie auf den GRUB-Infoseiten (info grub) und der Manualpage (Handbuchseite) lilo. der dem Standardeintrag ähnelt. DVD+RL) gebrannt werden. Aktualisieren des Systems und Paketverwaltung 87 . KAMix. Alternativ unterstützen GRUB und LILO Platzhalter für Bootloader-Einträge. die Aufrüstung von einem Kernel auf einen anderen durch Installieren des neuen Kernel vorzunehmen. cdrecord-dvd. DVD-RW.previous möglich. die über diesen Patch verfügt. Mehrere Kernel Es können mehrere Kernel gleichzeitig installiert werden. einen Eintrag für die zusätzlichen Kernel hinzuzufügen. kann auf den zuvor aktiven Kernel zugegriffen werden. Verwenden Sie dieses Programm anstelle von cdrecord-dvd mit dem Patch. Obwohl YaST diese Funktion noch nicht unterstützt. beispielsweise QAMix. um die Unterstützung für das Brennen von DVDs bereitzustellen. und dieser Eintrag auf vmlinuz. Die standardmäßigen Bootloader-Menüs enthalten nur einen Kernel-Eintrag. Brennen von DVDs In der Vergangenheit wurde ein Patch aus dem cdrecord-Paket auf die Binärdatei cdrecord angewendet. Wenn ein Bootloader-Eintrag erstellt wird. Mit dem growisofs-Programm aus dem dvd+rw-tools-Paket können nun sämtliche DVD-Medien (DVD+R. Diese Funktion soll es Administratoren ermöglichen. Für High-End-Hardware stehen andere Mixer zur Verfügung.previous verweist. DVD-R. DVD+RW.kmix-Soundmixer Der kmix-Soundmixer ist standardmäßig voreingestellt. envy24control (nur ICE1712) oder hdspmixer (nur RME Hammerfall). installiert. der vor der Installation des neuen Kernel aktiv war. ist über vmlinuz. Nun wird eine neue Binärdatei.rpm problemlos möglich. Der Zugriff auf den Kernel. nicht auf vmlinuz und initrd.previous und initrd .previous und initrd. anschließend muss die ordnungsgemäße Funktion des neuen Kernel überprüft und der alte Kernel deinstalliert werden. ist die Installation und Deinstallation von der Shell aus mithilfe von rpm -i Paket.conf (5). um die problemlose Auswahl zu ermöglichen.

suse.3 Von 9. Wenn keine besondere Konfiguration vorgenommen wurde. Starten der manuellen Installation an der Kernel-Eingabeaufforderung Der Modus Manuelle Installation steht im Bootloader-Bildschirm nicht mehr zur Verfügung.3.5 Alte Datei /etc/krb5.keytab Sicherungsdateien Sicherungsdatei /etc/krb5.conf /etc/krb5. Nach der Systemaktualisierung steht die alte heimdal-Datenbank weiterhin unter /var/heimdal 88 Referenz . Mit manual=1 an der Boot-Eingabeaufforderung kann linuxrc weiterhin in den manuellen Modus versetzt werden.heimdal /etc/krb5.conf) ist mit der von heimdal weitgehend identisch.2.5. Die automatische Konvertierung einer bestehenden heimdal-Konfiguration ist nicht möglich. muss lediglich der Parameter kpasswd_server durch admin_server ersetzt werden. 88) dargestellt.3“ (in der SUSE Support-Datenbank unter http://portal. beispielsweise textmode=1. es kann auch eine URL als Installationsquelle angegeben werden.keytab. Kerberos für die Authentifizierung im Netzwerk Kerberos ist anstelle von heimdal der Standard für die Netzwerkauthentifizierung.3 Ziehen Sie den Artikel „Bekannte Probleme und Besonderheiten in SUSE Linux 9.heimdal Die Client-Konfiguration (/etc/krb5. da die Installationsoptionen direkt an der Kernel-Eingabeaufforderung festgelegt werden können. „Sicherungsdateien“ (S. wie in Tabelle 3.2 auf 9. Tabelle 3. Dies ist normalerweise nicht erforderlich.com) zurate (Schlüsselwort: Besonderheiten). Die serverbezogenen Daten (kdc und kadmind) können nicht kopiert werden. Bei einer Systemaktualisierung werden Sicherungskopien von Konfigurationsdateien erstellt.conf.

conf erstellt Keine XView.conf geschrieben. Bei einer kompletten Neuinstallation wird kein Kompatibilitätslink zwischen XF86Config und xorg. Ein noch wichtigerer Punkt: OLVWM (OpenLook Virtual Window Manager) ist ebenfalls nicht mehr verfügbar.und OpenLook-Unterstützung mehr Die Pakete xview. Die XView-Bibliotheken stehen nach der Systemaktualisierung nicht mehr zur Verfügung.zur Verfügung.Org-Konfigurationseinstellungen in /etc/X11/xorg. xview-devel-examples. Tripwire ist unter SUSE Linux nicht mehr verfügbar. olvwm und xtoolpl wurden verworfen.Org-Konfigurationsdatei Vom SaX2-Konfigurationswerkzeug werden die X. die Partitionierung mit JFS wird jedoch von YaST nicht angeboten. PAM-Konfiguration Neue Konfigurationsdateien (mit Kommentaren für mehr Information) common-auth Standardmäßige PAM-Konfiguration für auth-Abschnitt Aktualisieren des Systems und Paketverwaltung 89 . die Veröffentlichung erfolgt gemäß GPL (GNU Public License). Der Kernel-Dateisystemtreiber ist weiterhin vorhanden. xview-devel. In der Vergangenheit wurde lediglich das XView(OpenLook-)Basissystem bereitgestellt. JFS: Nicht mehr unterstützt Aufgrund technischer Probleme wird JFS nicht mehr unterstützt. MIT-Kerberos verwaltet die Datenbank unter /var/lib/kerberos/ krb5kdc. AIDE als Tripwire-Ersatz Verwenden Sie als System zur Erkennung von Eindringlingen (Intrusion Detection System) AIDE (Paketname aide). X.

wie --atime-preserve oder --numeric-owner. Die Änderungen sind einfach. Einer zu einem späteren Zeitpunkt installierten Anwendung werden die bereits angewendeten Änderungen vererbt und der Administrator muss nicht daran denken. Überprüfen Sie Ihre Sicherungsskripts.so pam_make.0 auth include account include password include session include common-auth common-account common-password common-session Strengere tar-Syntax Die tar-Verwendungssyntax ist nun strenger Die tar-Optionen müssen den Dateioder Verzeichnisspezifikationen vorangestellt werden.so pam_unix2. da es einfacher ist.so pam_pwcheck.tar. Wenn Sie über folgende Konfigurationsdatei verfügen (sollte bei den meisten Anwendungen der Standard sein): #%PAM-1.gz /etc --atime-preserve 90 Referenz . Das Anfügen von Optionen.common-account Standardmäßige PAM-Konfiguration für account-Abschnitt common-password Standardmäßige PAM-Konfiguration für password-Abschnitt common-session Standardmäßige PAM-Konfiguration für Sitzungsverwaltung Sie sollten diese standardmäßigen Konfigurationsdateien aus Ihrer anwendungsspezifischen Konfigurationsdatei aufnehmen. Befehle dieser Art funktionieren nicht mehr: tar czf etc.so pam_unix2.so use_first_pass use_authtok /var/yp können Sie sie folgendermaßen ändern: #%PAM-1.0 auth required account required password required password required #password required session required pam_unix2. die zuvor auf dem System vorhanden waren. eine einzige Datei zu ändern und zu verwalten.oder Verzeichnisspezifikation führt dazu. anstelle der etwa vierzig Dateien.so pam_unix2. dass bei tar ein Problem auftritt. die Konfiguration anzupassen. nach der Datei.

3.xinitrc In vielen Anwendungen wird jetzt D-BUS für die prozessübergreifende Kommunikation verwendet. wenn Sie das Standardverhalten von su ändern möchten. um eine Anmelde-Shell mit der vollständigen Umgebung für root zu starten.auf. Weitere Informationen finden Sie in /usr/share/doc/packages/ pcmciautils/README. Weitere Informationen finden Sie in Abschnitt 33. Das pcmcia-Startskript wurde entfernt und cardctl wird durch pccardctl ersetzt. Stattdessen wird die Verwaltung. powersave-Konfigurationsvariablen Namen der powersave-Konfigurationsvariablen wurden aus Konsistenzgründen geändert. Die Aktualisieren des Systems und Paketverwaltung 91 . von einem KernelModul vorgenommen. PCMCIA Mit cardmgr ist die Verwaltung von PC-Karten nicht mehr möglich. die sysconfig-Dateien sind unverändert. 641). Durch den Aufruf dbus-launch wird dbus-daemon gestartet.suse.4 Von 9.1. Anmelden als Superuser mit su Standardmäßig wird durch den Aufruf von su zur Anmeldung als root der PATH für root nicht eingestellt. „Konfigurieren des powersave-Pakets“ (S. Alle erforderlichen Aktionen können mit hotplug ausgeführt werden.0 Ziehen Sie den Artikel „Bekannte Probleme und Besonderheiten in SUSE Linux 10“ (in der SUSE Support-Datenbank unter http://portal.com) zurate (Schlüsselwort: Besonderheiten).2. Rufen Sie entweder su .5. oder stellen Sie ALWAYS_SET_PATH auf yes (ja) in /etc/default/su ein. Einrichten von D-BUS für die prozessübergreifende Kommunikation in .SUSE. wie bei Cardbus-Karten und anderen Teilsystemen.Weitere Informationen finden Sie auf den tar-Infoseiten.3 auf 10.

Andernfalls können in Anwendungen.d/ntp /etc/logrotate. 92 Referenz . Speichern Sie die alte Version der Datei ~/ .systemweite Datei /etc/X11/xinit/xinitrc verwendet dbus-launch zum Starten des Fenster-Managers.d wird nicht mehr verwendet. tomboy oder Network Manager banshee. wie f-spot.d/ntp /usr/sbin/rcntp /etc/sysconfig/ntp Über den udev-Daemon verarbeitete Hotplug-Ereignisse Hotplug-Ereignisse werden jetzt vollständig über den udev-Daemon (udevd) verarbeitet. Die neuen Dateinamen lauten wie folgt: /etc/slp.template ~/. banshee. Fehler auftreten.reg. Umbenannte NTP-bezogene Dateien Aus Gründen der Kompatibilität mit LSB (Linux Standard Base) wurden die meisten Konfigurationsdateien und das init-Skript von xntp in ntp umbenannt.xinitrc.xinitrc-Datei hinzu. Udev-Regeln und Hilfswerkzeuge werden von udev und verschiedenen anderen Paketen bereitgestellt. Das Ereignis-Multiplexer-System unter /etc/hotplug. Falls Sie eine lokale ~/.d und /etc/dev. Kopieren Sie anschließend die neue Vorlagendatei mit folgendem Befehl in Ihr Home-Verzeichnis: cp /etc/skel/.xinitrc-Datei verwenden.xinitrc Fügen Sie anschließend Ihre Anpassungen aus der gespeicherten .xinitrc. Stattdessen werden mit udevd alle Hotplug-Hilfswerkzeuge gemäß den entsprechenden Regeln direkt aufgerufen. müssen Sie diese entsprechend ändern.reg /etc/init.d/ntp.

wird gamin bevorzugt.com) zurate (Schlüsselwort: Besonderheiten).1 Ziehen Sie den Artikel „Bekannte Probleme und Besonderheiten in SUSE Linux 10“ (in der SUSE Support-Datenbank unter http://portal.5 Von 10. Benachrichtigung bezüglich Dateisystemänderung für GNOME-Anwendungen Für eine ordnungsgemäße Funktionsweise der GNOME-Anwendungen ist die Unterstützung für Benachrichtigungen bei Dateisystemänderungen erforderlich. Weitere Informationen finden Sie unter http://www.tei-c.) • Wenn der FAM-Daemon ausgeführt wird. Von diesem Speicherort können Sie beispielsweise base/p4/html/tei. die nur von FAM unterstützt werden).2.suse.0 auf 10.TEI-XSL-Stylesheets Die TEI-XSL-Stylesheets (tei-xsl-stylesheets) mit neuem Verzeichnislayout finden Sie in /usr/share/xml/tei/stylesheet/rahtz/current. der für die Bereitstellung der Benachrichtigung bezüglich Dateisystemänderungen gamin oder fam auswählt: • Wenn der FAM-Daemon nicht ausgeführt wird. Führen Sie für entfernte Dateisysteme sowohl auf dem Server als auch auf dem Client FAM aus und öffnen Sie die Firewall für RPC-Aufrufe durch FAM. (Begründung: Inotify wird nur von gamin unterstützt und ist für lokale Dateisysteme effizienter. wird FAM bevorzugt (Begründung: Wenn FAM ausgeführt wird. 3.xsl für die HTML-(HyperText Markup Language-)Ausgabe verwenden. GNOME (gnome-vfs2 und libgda) enthält einen Packer. Aktualisieren des Systems und Paketverwaltung 93 . möchten Sie wahrscheinlich entfernte Benachrichtigungen erhalten.org/Stylesheets/teic/. Installieren Sie auf ausschließlich lokalen Dateisystemen das gamin-Paket (bevorzugt) oder führen Sie den FAM-Daemon aus.

94 Referenz . Seine Hauptprogramme sind rpm und rpmbuild. wird die Einstellung unter Open links from other applications in (Links aus anderen Anwendungen öffnen in) verwendet.org/docs/2. der mit dem runtime-Editor von YaST konfiguriert werden muss. ob Firefox bereits ausgeführt wird oder nicht.Apache 2.html finden Sie eine Beschreibung der neuen Funktionen. Die neue Methode stand teilweise bereits in älteren Versionen zur Verfügung. Dabei spielt es keine Rolle. Allgemeine Informationen zur Aktualisierung erhalten Sie unter http:// httpd.apache.2/new_features_2_2. Der HTTP-Server Apache (S.org/docs/2.2/upgrading.2 wurde Kapitel 26. Andernfalls lautet der neue Befehl zum Öffnen von URLs firefox url. Firefox 1. Wenn Firefox bereits ausgeführt wird.2 Für Apache Version 2. Über die Befehlszeile können Sie das Verhalten mit den Befehlen firefox -new-window url oder firefox -new-tab url beeinflussen. Starten von FTP-Servern (vsftpd) Der vsftpd-FTP-Server wird standardmäßig nicht mehr über xinetd gestartet. 485) komplett überarbeitet. 3.5: Befehl zum Öffnen von URLs In Firefox 1. Er ist jetzt ein eigenständiger Daemon. In der leistungsstarken RPM-Datenbank können Benutzer.der Paket-Manager In SUSE LINUX wird RPM (RPM Package Manager) für die Verwaltung der Softwarepakete verwendet. in denen das Verhalten im Packer-Skript implementiert war.html und unter http://httpd . Wenn in Ihrer Anwendung weder mozilla-xremote-client noch firefox -remote verwendet wird. müssen Sie keine Änderungen vornehmen. Systemadministratoren und Paketersteller ausführliche Informationen über die installierte Software abfragen. mit der Anwendungen eine Firefox-Instanz oder ein Firefox-Fenster öffnen.5 wurde die Methode geändert.3 RPM .apache.

1 Prüfen der Authentizität eines Pakets RPM-Pakete von SUSE LINUX sind mit GnuPG signiert. Solche Pakete sind am Namenszusatz -devel zu erkennen. de-installieren oder aktualisieren. Installierbare RPM-Archive sind in einem speziellen binären Format gepackt.3. gimp-devel und kdelibs3-devel. Der Schlüssel mit dem „Fingerabdruck“ lautet: 1024D/9C800ACA 2000-10-19 SuSE Package Signing Key <build@suse. damit auch normale Benutzer die Signatur von RPM-Paketen prüfen können. B. ob es wirklich von SUSE Linux oder einer anderen vertrauenswürdigen Stelle stammt. die RPM-Datenbank neu aufbauen. RPM-Archive haben für gewöhnlich die Dateinamenerweiterung . TIPP: Pakete zur Software-Entwicklung Bei etlichen Paketen sind die zur Software-Entwicklung erforderlichen Komponenten (Bibliotheken. installierbare Pakete aus den unverfälschten Quellen herzustellen. um das jeweilige Softwarepaket zu konfigurieren. Aktualisieren des Systems und Paketverwaltung 95 . Der Schlüssel befindet sich zusätzlich im Verzeichnis /usr/lib/rpm/gnupg/. an einzelne RPM-Archive richten. oder die zu Dokumentationszwecken in der RPM-Datenbank gespeichert werden.und Include-Dateien usw.Im Wesentlichen hat rpm fünf Modi: Softwarepakete installieren. Der öffentliche Paketsignierschlüssel von SUSE Linux ist standardmäßig in /root/. wenn Sie Software selbst kompilieren möchten – beispielsweise die neuesten GNOME-Pakete. z.gnupg/ hinterlegt.rpm.3. Dies ist insbesondere bei UpdatePaketen aus dem Internet zu empfehlen.de> Key fingerprint = 79C1 79B2 E1C8 20C1 890F 9994 A84E DAE8 9C80 0ACA Mit dem Befehl rpm --checksig paket-1.) in eigene Pakete ausgelagert.2.rpm können Sie die Signatur eines RPM-Pakets überprüfen und so feststellen. rpmbuild dient dazu. Anfragen an die RPM-Datenbank bzw. 3. Diese Entwicklungspakete werden nur benötigt. die Pakete alsa-devel. Diese Archive bestehen aus den zu installierenden Programmdateien und aus verschiedenen Metadaten. Header. Pakete auf Integrität überprüfen und Pakete signieren. die bei der Installation von rpm benutzt werden.

96 Referenz .rpmnew-Dateien erscheinen immer dann.und . z. Aktualisieren und Deinstallieren Im Normalfall ist das Installieren eines RPM-Archivs ganz simpel: rpm -i paket.rpmsave-Dateien. • .2 Verwalten von Paketen: Installieren. diese Standards zu ignorieren.rpm. Mit diesem Befehl wird das Paket aber nur dann installiert. Dieser Befehl entfernt die Dateien der alten Version und installiert sofort die neuen Dateien.rpm. speichert rpm die geänderte Datei mit der Erweiterung .spec-Datei angegeben wurde. Die Optionen -U oder --upgrade und -F oder --freshen können für das Update eines Pakets benutzt werden.rpmsave) mit der neu installierten Datei und nehmen Sie Ihre Änderungen erneut in der neuen Datei vor. B.3. Der Unterschied zwischen den beiden Versionen besteht darin. Es sind keine Eingriffe seitens des Administrators nötig. die vorher nicht im System vorhanden waren. installiert rpm die neue Version der entsprechenden Datei. Andernfalls wird damit die Integrität des Systems gefährdet und möglicherweise die Update-Fähigkeit aufs Spiel gesetzt. wenn seine Abhängigkeiten erfüllt sind und keine Konflikte mit anderen Paketen bestehen.rpmorig oder . jedoch ist dies nur für Spezialisten gedacht.3. dass mit -U auch Pakete installiert werden. um Probleme mit zukünftigen Updates zu vermeiden. die zum Erfüllen der Abhängigkeiten installiert werden müssen.: rpm -F paket. wenn die Konfigurationsdatei bereits existiert und wenn die Kennung noreplace mit der . dass keine Konflikte entstehen: Eine spezifische Datei darf nur zu einem Paket gehören. wenn sich die ursprünglich installierte Datei und die neue Version unterscheiden.rpmorig oder . • Falls eine Konfigurationsdatei vom Systemadministrator vor dem Update geändert wurde. wohingegen mit -F nur zuvor installierte Pakete aktualisiert werden. Löschen Sie anschließend unbedingt alle . Vergleichen Sie in diesem Fall die Sicherungsdatei (. Im Hintergrund wacht die RPM-Datenbank darüber. Durch die Wahl anderer Optionen können Sie rpm zwingen.rpmsave (Sicherungsdatei) und installiert nur dann die Version aus dem neuen Paket. rpm fordert per Fehlermeldung die Pakete an. Bei einem Update verwendet rpm zur sorgfältigen Aktualisierung der Konfigurationsdateien die folgende Strategie: • Falls eine Konfigurationsdatei vom Systemadministrator nicht geändert wurde.rpmorig.

die RPM-Datenbank mit der Option --rebuilddb neu aufzubauen. mit der Patches in Pakete installiert werden können. Der Schalter -U ist nicht einfach gleichbedeutend mit der Deinstallation mit der Option -e und der Installation mit der Option -i. rpm löscht das Paket nur. .Im Anschluss an ein Update sollten alle . Mit anderen Worten: .rpmnew informiert nicht darüber. Bisher konnte ein Fehler in einem Paket nur eliminiert werden. . Jedoch bietet SUSE RPM nun eine Funktion. wenn Sie ein Paket entfernen möchten.rpmorig wird zugewiesen. Einige Konfigurationsdateien (wie /etc/httpd/httpd. Bei großen Paketen mit Fehlern in kleinen Dateien kann dies schnell zu großen Datenmengen führen. müssen von Zeit zu Zeit Update-Pakete auf dem System installiert werden.3 RPM und Patches Um die Betriebssicherheit eines Systems zu garantieren. Die wichtigsten Überlegungen dazu werden am Beispiel „pine“ aufgezeigt: Ist der Patch-RPM für mein System geeignet? Um dies zu prüfen. Auch in diesem Fall nutzt RPM die Datenbank zur Unterstützung. Verwenden Sie -U.rpmorig entsteht bei einem Update von einem Fremdformat auf RPM.conf) werden nicht überschrieben. kann es nützlich sein. Im Fall von pine verwenden Sie den Befehl: Aktualisieren des Systems und Paketverwaltung 97 .rpmsave. Die Erweiterung . Eine Liste all dieser Dateien ist in /var/adm/rpmconfigcheck verfügbar. indem das vollständige Paket ersetzt wurde. Andernfalls wird . fragen Sie zunächst die installierte Version des Pakets ab.3.rpmsave entsteht bei einem Update aus einem älteren RPM auf einen neueren RPM. beispielsweise Tcl/Tk zu löschen. wann immer möglich. damit sie bei zukünftigen Updates nicht stören. wenn keine nicht aufgelösten Abhängigkeiten vorhanden sind. 3.rpmnew-Dateien nach einem Abgleich entfernt werden. Geben Sie rpm -e paket ein.rpmsave verwendet. solange eine andere Anwendung Tcl/Tk noch benötigt. um den weiteren Betrieb zu ermöglichen. Falls in einem Ausnahmefall ein solcher Löschvorgang nicht möglich ist. ob der Systemadministrator die Konfigurationsdatei geändert hat. wenn die Datei zuvor nicht von der RPMDatenbank erkannt wurde. Theoretisch ist es unmöglich.und . obwohl keine Abhängigkeiten mehr bestehen.

44-195 pine = 4. dass ein passender RPM bereits installiert sein muss. Zeigen Sie die Dateiliste mit dem folgenden Befehl an: rpm -qpPl pine-4.patch. der Patch kann installiert werden.44-224. den folgenden Befehl: rpm -qPl pine /etc/pine.rpm pine = 4. d.conf.44-224.44-188 Prüfen Sie dann.rpm -q pine pine-4. die im System installiert sind. Der einzige Unterschied liegt darin. welche Paketversion ursprünglich installiert war.conf /etc/pine.44-224 Wenn Sie zu einem späteren Zeitpunkt wissen möchten.i586. Welche Patches sind bereits auf dem System installiert und zu welchen Paketversionen gehören sie? Eine Liste aller Patches.conf.i586.44-207 Dieser Patch passt zu drei verschiedenen Versionen von pine.fixed /usr/bin/pine Wie kann ein Patch-RPM im System installiert werden? Patch-RPMs werden wie normale RPMs verwendet. Der rpm-Parameter -P ermöglicht die Auswahl von speziellen PatchFunktionen. Wenn nur ein Patch in einem neuen System installiert ist (wie in unserem Beispiel). falls der Patch bereits installiert ist.fixed /usr/bin/pine Oder verwenden Sie.rpm /etc/pine. Auch die im Beispiel installierte Version wird aufgeführt.conf /etc/pine. sieht die Liste wie folgt aus: rpm -qPa pine-4. Für pine rufen Sie diese Information mit dem folgenden Befehl ab: 98 Referenz . h. ob der Patch-RPM sich für diese Version von pine eignet: rpm -qp --basedon pine-4. kann über den Befehl rpm -qPa angezeigt werden.patch. können Sie auch diese Information der RPM-Datenbank entnehmen.44-188 pine = 4. Welche Dateien werden durch den Patch ersetzt? Die durch einen Patch betroffenen Dateien können leicht im Patch-RPM abgelesen werden.

cpio new. writedeltarpm und applydeltarpm sind Teil der Delta-RPM-Suite (Paket deltarpm) und helfen Ihnen beim Erstellen und Anwenden von Delta-RPM-Paketen. Sorgen Sie dafür. dass UpdateVorgänge mit Delta-RPMs erheblich mehr CPU-Zyklen beanspruchen als normale oder Patch-RPMs. aber der Download kann länger dauern.rpm vorhanden sind: prepdeltarpm -s seq -i info old.rpm rm old. Die Binärdateien prepdeltarpm.delta. dass Sie in diesem Fall Ihre Installationsmedien bereithalten. die installierten Dateien entsprechen.cpio xdelta delta -0 old.cpio delta Mit applydeltarpm können Sie den neuen RPM aus dem Dateisystem rekonstruieren.rpm und new.cpio prepdeltarpm -f new.cpio new. In diesem Fall benötigen Sie die Installationsmedien nicht. Die Delta-RPM-Pakete sind sogar kleiner als Patch-RPMs.delta.4 Delta-RPM-Pakete Delta-RPM-Pakete enthalten die Unterschiede zwischen einer alten und einer neuen Version eines RPM-Pakets. Es ist nicht erforderlich. setzen Sie YOU_USE_DELTAS in /etc/sysconfig/onlineupdate auf yes.rpm Aktualisieren des Systems und Paketverwaltung 99 . Der folgende Befehl setzt voraus.rpm -q --basedon pine pine = 4. stehen auf den Manualpages von rpm und rpmbuild zur Verfügung.3. wenn das alte Paket bereits installiert ist: applydeltarpm new.rpm delta info new. Mit der Einstellung no verwendet YOU lediglich Patch-RPMs und normale RPMs. dass eine Kopie des alten RPM vorhanden ist. Wenn YOU_USE_DELTAS leer oder auf filesystem gesetzt ist.44-188 Weitere Informationen. DeltaPakete herunterzuladen. versucht YOU. Wenn Sie ein Delta-RPM auf ein altes RPM anwenden.rpm new. Der Nachteil ist.rpm > old. Damit YaST bei YOU-Sitzungen Delta-RPM-Pakete verwendet. 3.rpm. da ein Delta-RPM auch mit einem installierten RPM arbeiten kann. was beim Übertragen von Update-Paketen über das Internet von Vorteil ist.rpm > new. ergibt dies einen vollständig neuen RPM. Mit den folgenden Befehlen erstellen Sie ein Delta-RPM mit dem Namen new. dass old.delta.cpio delta writedeltarpm new. auch zur Patch-Funktion von RPM.

ein RPM-Archiv zu prüfen (durch Hinzufügen der Option -p) und auch die RPM-Datenbank nach installierten Paketen abzufragen. das die Datei FILE enthält.5 RPM-Abfragen Mit der Option -q initiiert rpm Abfragen und ermöglicht es. Siehe Tabelle 3. die ein anderes Paket mit --requires anfordern kann Fähigkeiten.6 -i -l -f FILE Die wichtigsten RPM-Abfrageoptionen Paketinformation Dateiliste Abfrage nach Paket.rpm new. die das Paket benötigt -s -d -c --dump --provides --requires. Zur Angabe der benötigten Informationsart stehen mehrere Schalter zur Verfügung.Um es aus dem alten RPM abzuleiten. 100). -R 100 Referenz . (FILE muss mit dem vollständigen Pfad angegeben werden. „Die wichtigsten RPM-Abfrageoptionen“ (S. ohne auf das Dateisystem zuzugreifen.3.6.rpm Technische Details finden Sie in /usr/share/doc/packages/deltarpm/ README. verwenden Sie die Option -r: applydeltarpm -r old. 3.) Dateiliste mit Statusinformation (impliziert -l) Nur Dokumentationsdateien auflisten (impliziert -l) Nur Konfigurationsdateien auflisten (impliziert -l) Dateiliste mit vollständigen Details (mit -l.rpm new. Tabelle 3.delta. -c oder -d benutzen) Funktionen des Pakets auflisten.

Aktualisieren des Systems und Paketverwaltung 101 .de Group : Productivity/Networking/Web/Utilities Source RPM: wget-1. Sie können so viele Dateinamen wie nötig angeben.src. Beispiel 3.9.dk/ Summary : A tool for mirroring FTP and HTTP servers Description : Wget enables you to retrieve WWW documents or FTP files from a server..2 rpm -q -i wget Name : wget Relocations: (not relocatable) Version : 1.1-50 Wenn nur ein Teil des Dateinamens bekannt ist.9. Beispielsweise führt der folgende Befehl rpm -q -f /bin/rpm /usr/bin/wget zum Ergebnis: rpm-4. postinstall.. „Skript für die Suche nach Paketen“ (S.2.1-191 wget-1. uninstall) Beispielsweise gibt der Befehl rpm -q -i wget die in Beispiel 3. [.1 Vendor: SUSE LINUX AG. 101) gezeigte Information aus. verwenden Sie ein Shell-Skript. This can be done in script files or via the command line. wenn Sie den kompletten Dateinamen mit dem vollständigen Pfad angeben.3. „rpm -q -i wget“ (S.1-50.1.] Die Option -f funktioniert nur.suse. Nuernberg.de/feedback URL : http://wget.sunsite.--scripts Installationsskripts (preinstall. Übergeben Sie den partiellen Dateinamen als Parameter beim Aufruf des Skripts. Germany Release : 50 Build Date: Sat 02 Oct 2004 03:49:13 AM CEST Install date: Mon 11 Oct 2004 10:24:56 AM CEST Build Host: f53. Sat 02 Oct 2004 03:59:56 AM CEST. Key ID a84edae89c800aca Packager : http://www.9. wie in Beispiel 3.rpm Size : 1637514 License: GPL Signature : DSA/SHA1.suse. 102) gezeigt.

do echo "\"$i\" is in package:" rpm -q -f $i echo "" done Der Befehl rpm -q --changelog rpm zeigt eine detaillierte Liste der Änderungsinformation über ein bestimmtes Paket nach Datum sortiert.Beispiel 3. Mit dieser Option zeigt rpm alle Dateien in einem Paket an.und Minor-Gerätenummern Eigentümer Gruppe Modus (Berechtigungen und Dateityp) Bei Konfigurationsdateien wird der Buchstabe c ausgegeben. Leiten Sie die Überprüfungen mit -V. rpm verwendet acht verschiedene Zeichen als Hinweis auf die folgenden Änderungen: Tabelle 3..3 Skript für die Suche nach Paketen #! /bin/sh for i in $(rpm -q -a -l | grep $1).7 5 S L T D U G M RPM-Überprüfungsoptionen MD5-Prüfsumme Dateigröße Symbolischer Link Änderungszeit Major. -y oder --verify ein. Dieses Beispiel zeigt Informationen über das Paket rpm.T c /etc/wgetrc 102 Referenz .. Beispielsweise für Änderungen an /etc/wgetrc (wget): rpm -V wget S. die seit der Installation geändert wurden.. Mithilfe der installierten RPM-Datenbank sind Überprüfungen möglich.5.

tar. insbesondere nach einem kompletten Update. festgelegt): SOURCES für die originalen Quellen (.spec-Dateien. 3.3.bz2 oder . etc. die ähnlich wie Meta-Makefiles den build-Prozess steuern BUILD Alle Quellen in diesem Verzeichnis werden entpackt. kann es nützlich sein. Die Anzahl der Kopien wird durch die Variable MAX_RPMDB_BACKUPS (Standard: 5) in /etc/sysconfig/ backup gesteuert.gz files.) und für die distributionsspezifischen Anpassungen (meistens . Wenn Sie ein Quellpaket „installieren“. gepatcht und kompiliert.daily legt täglich (mit gzip gepackte) Kopien der Datenbank an und speichert diese unter /var/adm/backup/rpmdb.diff. Die Größe einer einzelnen Sicherungskopie beträgt ungefähr 1 MB für 1 GB in /usr. Das liegt daran.patch-Dateien) SPECS für die . wird dem System nur der Quellcode hinzugefügt.Die Dateien der RPM-Datenbank werden in /var/lib/rpm abgelegt. Wenn die Datenbank viel größer als erwartet ist.rpm (Source-RPM). dass die Quellpakete nicht in der RPM-Datenbank eingetragen sind. Das cron-Skript cron. kann diese Datenbank beinahe 30 MB belegen. Legen Sie zuvor eine Sicherungskopie der alten Datenbank an.oder . Nur installierte Betriebssystemsoftware wird in der RPM-Datenbank aufgeführt. Sie haben spezielle Einstellungen in einer Datei.tar. Wenn die Partition /usr eine Größe von 1 GB aufweist. wie /etc/rpmrc. Die folgenden Verzeichnisse müssen für rpm und rpmbuild in /usr/src/ packages vorhanden sein (es sei denn. TIPP Quellpakete können vom Installationsmedium auf die Festplatte kopiert und mit YaST entpackt werden. die Datenbank mit der Option --rebuilddb neu zu erstellen.6 Installieren und Kompilieren von Quellpaketen Alle Quellpakete von SUSE Linux haben die Erweiterung . Aktualisieren des Systems und Paketverwaltung 103 .src. Sie werden im Paket-Manager jedoch nicht als installiert ([i]) gekennzeichnet.

da Sie damit die Funktionstüchtigkeit Ihres Systems aufs Spiel setzen.1-brokentime. Das folgende Beispiel verwendet das wget.patch /usr/src/packages/SOURCES/wget-1. Nach dem Installieren des Pakets mit YaST sollten Sie über Dateien ähnlich wie in folgender Liste verfügen: /usr/src/packages/SOURCES/nops_doc. 104 Referenz . X ist ein Platzhalter für verschiedene Stufen des build-Prozesses (Einzelheiten siehe in --help oder der RPM-Dokumentation).9. Nachfolgend wird nur eine kurze Erläuterung gegeben: -bp Bereiten Sie Quellen in /usr/src/packages/BUILD vor: entpacken und patchen. ist es möglich.spec-Datei in SPECS. jedoch zusätzlich kompilieren. rpm.patch /usr/src/packages/SOURCES/wget-1.patch /usr/src/packages/SPECS/wget.9. dass Konfigurationsdateien überschrieben werden.spec wird die Kompilierung gestartet.).tar.bz2 /usr/src/packages/SOURCES/wget-wrong_charset.diff /usr/src/packages/SOURCES/wget-LFS-20040909. Vorsicht: Wenn das Paket die Funktion BuildRoot nicht unterstützt.RPMS Speicherort der fertigen Binärpakete SRPMS Speicherort der Quell-RPMs Wenn Sie ein Quellpaket mit YaST installieren. jedoch zusätzlich die erstellte Software installieren.rpm-Paket. -bi Wie -bp. sysvinit usw.1+ipvmisc.diff /usr/src/packages/SOURCES/wget-1.1-passive_ftp. werden alle erforderlichen Komponenten in /usr/src/packages installiert: die Quellen und Anpassungen in SOURCES und die relevante . -bc Wie -bp.spec Mit rpmbuild -b X /usr/src/packages/SPECS/wget.diff /usr/src/packages/SOURCES/toplev_destdir.9.src. WARNUNG Experimentieren Sie nicht mit Systemkomponenten (glibc.

--short-circuit Einige Schritte überspringen. Wenn Sie. die Initialisierung Aktualisieren des Systems und Paketverwaltung 105 . jedoch zusätzlich das Binärpaket erstellen. verwenden Sie als Benutzer root folgende Befehle: cd /usr/src/packages/SOURCES/ mv . wget neu erstellen möchten und die DVD unter /media/dvd im System eingehängt ist. Der erstellte Binär-RPM kann nun mit rpm -i oder vorzugsweise mit rpm -U erstellt werden. Das Paket wird in dieser Umgebung erstellt. Ihre eigenen RPMs bevorzugt zu verwenden.7 Kompilieren von RPM-Pakten mit „build“ Bei vielen Paketen besteht die Gefahr.3.. Um dies zu vermeiden. Danach befinden sich die resultierenden Pakete in /var/tmp/build-root/usr/src/ packages/RPMS. wie im obigen Beispiel. Durch die Installation mit rpm wird er in die RPM-Datenbank aufgenommen.spec Anschließend wird unter /var/tmp/build-root eine minimale Umgebung in /var/tmp/ build-root eingerichtet. Zum Aufbau dieser chroot-Umgebung muss dem build-Skript ein kompletter Paketbaum zur Verfügung stehen. Beispielsweise können Sie das Skript veranlassen. build --rpms /media/dvd/suse/ wget. können Sie build verwenden. 3. Nach erfolgreicher Kompilierung sollte das Binärpaket in /usr/src/packages/RPMS sein. -ba Wie -bb. dass während der Erstellung ungewollt Dateien in das laufende System kopiert werden./SPECS/wget. das eine definierte Umgebung herstellt. Im Unterschied zu rpm sucht der Befehl build die SPEC-Datei im Quellverzeichnis. in der das Paket erstellt wird. Das build-Skript bietet eine Reihe zusätzlicher Optionen. jedoch zusätzlich den Quell-RPM erstellen.spec . Dieser kann auf Festplatte. Nach erfolgreicher Kompilierung sollte dieses in /usr/src/packages/RPMS liegen.-bb Wie -bi. über NFS oder auch von DVD bereitgestellt werden. Legen Sie die Position mit build --rpms verzeichnis fest.

Weitere Informationen erhalten Sie über build --help oder die Manualpage build.3. 3.8 Werkzeuge für RPM-Archive und die RPM-Datenbank Midnight Commander (mc) kann den Inhalt von RPM-Archiven anzeigen und Teile daraus kopieren. Zeigen Sie den HEADER mit F3 an. Kopieren Sie Archivkomponenten mit F5 .der build-Umgebung auszulassen oder den Befehl rpm auf eine der oben erwähnten Stufen zu beschränken. Archive werden als virtuelle Dateisysteme dargestellt und bieten alle üblichen Menüoptionen von Midnight Commander. Systemkonfiguration mit YaST. ↑Start)). 106 Referenz . Zeigen Sie die Archivstruktur mit den Cursortasten und der Eingabe an. KDE bietet das Werkzeug kpackage als Frontend für rpm an. Ein Paket-Manager mit allen Funktionen ist als YaST-Modul verfügbar (siehe Abschnitt „Installieren und Entfernen von Software“ (Kapitel 2.

Administration .Teil II.

.

Die Verschlüsselung von Dateien oder ganzen Partitionen schützt Ihre Daten für den Fall. die die verschiedenen Netzwerke voneinander trennt.Sicherheit in Linux Masquerading und eine Firewall stellen einen kontrollierten Datenfluss und Datenaustausch sicher.1 Masquerading und Firewalls Wann immer Linux in einer Netzwerkumgebung eingesetzt wird. Die Filterkriterien und alle dazugehörigen Aktionen werden Sicherheit in Linux 109 . dass Dritte Zugriff auf Ihr System erhalten. In den technischen Anleitungen erhalten Sie Informationen über Sicherheitsaspekte von Linux-Netzwerken. können Sie die KernelFunktionen verwenden. Übersetzung der Netzwerkadressen).1 Paketfilterung mit iptables Die Komponenten netfilter und iptables sind verantwortlich für das Filtern und Bearbeiten von Netzwerkpaketen sowie für NAT (Network Address Translation. dass zwischen internen und externen Netzwerkbereichen unterschieden wird. mit denen Netzwerkpakete so bearbeitet werden können. Das LinuxNetfilter-Framework ermöglicht die Einrichtung einer wirksamen Firewall. Mithilfe von iptables – einer generischen Tabellenstruktur für die Definition von Regelsätzen – können Sie präzise steuern. welche Pakete eine Netzwerkschnittstelle passieren dürfen.1. Ein derartiger Paketfilter kann schnell und einfach mithilfe von SuSEfirewall2 und dem entsprechenden YaSTModul eingerichtet werden. 4. Mit SSH (Secure Shell) können Sie sich über eine verschlüsselte Verbindung bei entfernten Hosts anmelden. 4 4.

um private Netzwerke mit dem Internet zu verbinden. Mit dem Befehl iptables können Sie diese Tabellen und Regelsätze bearbeiten. bei dem es sich um einen Spezialfall von NAT handelt und der eingesetzt wird. 110 Referenz . B. den Typ des Diensts). wobei jede einzelne für eine bestimmte Kategorie von Funktionen des Paketfilters dient: Filter Diese Tabelle enthält die meisten Filterregeln. Die für den Vergleich zu verwendenden Ketten werden in Tabellen gespeichert. mangle Die Regeln in dieser Tabelle ermöglichen das Bearbeiten von Werten.und Zieladressen von Paketen definiert.in Ketten gespeichert. die in IPHeadern gespeichert sind (z. da sie die eigentliche Paketfilterung implementiert. Mithilfe dieser Funktionen können Sie das Masquerading implementieren. Hier wird u. die nacheinander mit den einzelnen eingehenden Netzwerkpaketen verglichen werden müssen. entschieden. welche Pakete durchgelassen (ACCEPT) oder abgelehnt (DROP) werden. nat In dieser Tabelle werden alle Änderungen an den Quell. Der Linux-Kernel verwaltet drei Tabellen. a.

1 iptables: Die möglichen Wege eines Pakets PREROUTING Eingehendes Paket mangle nat EINGABE mangle Filter Routing WEITERLEITEN Prozesse im lokalen System Filter mangle AUSGABE Routing mangle nat Filter POSTROUTING mangle nat Ausgehendes Paket Diese Tabellen enthalten mehrere vordefinierte Ketten. mit denen die Pakete verglichen werden: Sicherheit in Linux 111 .Abbildung 4.

die an interne Prozesse des Systems adressiert sind. 4. das an das System selbst adressiert ist. der Übersetzung von Netzwerkadressen. Der Einfachheit halber werden in dieser Abbildung die Tabellen als Teile von Ketten dargestellt.PREROUTING Diese Kette wird auf eingehende Pakete angewendet. 111) zeigt die Wege. Dies geschieht auf dem Router. WEITERLEITEN Diese Kette wird auf Pakete angewendet. die aus dem System selbst stammen. Es kann verwendet werden.2 Grundlegendes zum Masquerading Masquerading ist der Linux-Spezialfall von NAT (Network Address Translation). Das Paket wird zunächst an die Kette PREROUTING der Tabelle mangle und anschließend an die Kette PREROUTING der Tabelle nat weitergegeben. In Wirklichkeit sind diese Ketten jedoch in den Tabellen selbst enthalten. EINGABE Diese Kette wird auf Pakete angewendet. 349)) mit dem Internet (in dem offizielle IP-Adressen verwendet werden) zu verbinden. Im folgenden Schritt des Paket-Routings wird ermittelt. Abbildung 4. müssen ihre privaten Adressen in eine offizielle Adresse übersetzt werden. POSTROUTING Diese Kette wird auf alle ausgehenden Pakete angewendet. dass es tatsächlich den Regeln der Tabelle filter entspricht. Damit die LAN-Hosts eine Verbindung zum Internet herstellen können. um ein kleines LAN (in dem die Hosts IP-Adressen aus dem privaten Bereich verwenden – siehe Abschnitt 18. AUSGABE Diese Kette wird auf Pakete angewendet. der als Gateway zwischen 112 Referenz . dass das tatsächliche Ziel des Pakets ein Prozess des Systems selbst ist. „Netzmasken und Routing“ (S.2. „iptables: Die möglichen Wege eines Pakets“ (S. vorausgesetzt.1. an der Schnittstelle eth0 ein.1. die durch das System nur weitergeleitet werden. Nach den INPUT-Ketten der Tabellen mangle und filter erreicht das Paket schließlich sein Ziel.1. die ein Netzwerkpaket auf einem System durchlaufen kann. Im einfachsten aller möglichen Fälle geht ein eingehendes Paket.

Die Zieladresse für Anwortpakete ist wegen der Adressübersetzung wieder der Router. WICHTIG: Verwenden der richtigen Netzmaske Stellen Sie beim Konfigurieren des Netzwerks sicher. das StandardFTP-Programm und viele andere Programme verwenden den PASV-Modus. sodass dieser Tabelleneintrag nicht von einer zweiten Verbindung genutzt werden kann. dass sowohl die BroadcastAdresse als auch die Netzmaske für alle lokalen Hosts identisch sind. Dieser passive Modus ist in Bezug auf die Paketfilterung und das Masquerading weitaus problemloser. Aus diesem Grund wird diese Technik als Masquerading bezeichnet. Letztere verbindet den Router mit der Außenwelt und eine oder mehrere andere Schnittstellen verbinden ihn mit den LAN-Hosts. ist es nicht möglich. wird es zunächst zum Standardrouter weitergeleitet. muss er entsprechend konfiguriert werden. Sicherheit in Linux 113 . die nicht an das lokale Netzwerk adressiert sind. B. In SUSE Linux ist diese Funktion in einer Standardinstallation aus Sicherheitsgründen nicht aktiviert. Als Folge davon können bei einigen Anwendungsprotokollen. ICQ. von außen eine Verbindung zu einem internen Host herzustellen. Zudem verfügt eine eingerichtete Verbindung in der Tabelle über einen zugeordneten Status. sodass die Pakete an den richtigen Host im Netzwerk weitergeleitet werden können. erfährt aber nichts über den Host im internen Netzwerk.dem LAN und dem Internet agiert. z. Wenn diese Hosts im lokalen Netzwerk mit der Netzwerkkarte (z. von dem die Pakete stammen. Netscape. Um den Router entsprechend zu aktivieren. setzen Sie die Variable IP_FORWARD in der Datei /etc/ sysconfig/sysctl auf IP_FORWARD=yes. IRC (DCC. in der Regel eine Netzwerkkarte und eine separate Schnittstelle für die Verbindung mit dem Internet. B. Anderenfalls können die Pakete nicht ordnungsgemäß weitergeleitet werden. Da das Routing des eingehenden Verkehrs von der Masquerading-Tabelle abhängig ist. senden Sie alle Pakete. CTCP) und FTP (im PORT-Modus) Probleme auftreten. Der Zielhost der Verbindung kann Ihren Router sehen. eth0) des Routers verbunden sind. Wenn einer der LAN-Hosts ein Paket an eine Internetadresse sendet. Der Router muss die eingehenden Pakete identifizieren und ihre Zieladressen übersetzen. Bevor der Router jedoch derartige Pakete weiterleiten kann. Für eine derartige Verbindung gibt es in der Tabelle keinen Eintrag. Das zugrunde liegende Prinzip ist einfach: Der Router verfügt über mehrere Netzwerkschnittstellen. an ihr Standard-Gateway (den Router). cucme.

werden vom Proxy aus dem Internet geholt.gz. Im folgenden Abschnitt wird der zum Lieferumfang von SUSE Linux gehörende Paketfilter beschrieben. dieser Proxy gibt vor.4. die im Cache nicht gefunden werden. das die in /etc/sysconfig/SuSEfirewall2 gesetzten Variablen ausliest. In diesem Sinn kann ein solcher Proxy auf der Protokollebene der jeweiligen Anwendung als Masquerading-Host angesehen werden. Wenn dieses Paket installiert ist. In diesem Fall lehnt der Paketfilter alle Pakete ab. der mit einem Anwendungs-Gateway bzw. Ports und IP-Adressen. Ein weiteres Beispiel ist die SUSE-Proxy-Suite (proxy-suite). Ein Paketfilter untersucht jedoch nicht den Inhalt dieser Pakete. Alle angeforderten HTTP-Seiten werden aus dem Proxy-Cache bedient und Seiten. Es werden nur die Pakete angenommen. die aufgrund ihrer Adressierung Ihr Netz nicht erreichen sollen. ein HTTP-Proxyserver. wenn auch komplexerer Mechanismus ist die Kombination mehrerer Systeme. z. Dieses Gateway bzw. die im Paket howto enthalten ist.1. um mehrere iptables-Regeln zu generieren. Auf diese Weise können Sie Pakete blockieren. müssen Sie den entsprechenden Port explizit öffnen. -Proxy interagiert. muss der Browser für die Kommunikation über den Proxy konfiguriert sein. die einen Proxy für das FTP-Protokoll zur Verfügung stellt. ein Paketfilter. Ein Beispiel für einen derartigen Proxy ist Squid. der zwei Netze miteinander verbindet und gleichzeitig für möglichst kontrollierten Datenverkehr sorgt.1. Wenn Sie beispielsweise den öffentlichen Zugriff auf Ihren Webserver zulassen möchten. Genau genommen ist die in diesem Abschnitt beschriebene Firewall eigentlich ein Paketfilter.4 SuSEfirewall2 SuSEfirewall2 ist ein Skript. der eigentliche Client des Servers zu sein. Ein effektiverer. Um Squid verwenden zu können. Ein Paketfilter regelt den Datenfluss anhand von bestimmten Kriterien wie Protokollen.3 Grundlegendes zu Firewalls Firewall ist wohl der am weitesten verbreitete Begriff für einen Mechanismus. die an das Anwendungs-Gateway adressiert sind. Es definiert 114 Referenz . lesen Sie die HOWTO-Informationen mit dem Befehl less /usr/share/doc/howto/en/txt/Firewall-HOWTO. die an deaktivierte Ports adressiert sind. sofern sie legitim adressiert sind. Weitere Informationen zu Paketfiltern und Firewalls finden Sie in der Datei „Firewall HOWTO“. B. Das Paket könnte insofern einen Angriff auf ein CGI-Programm auf Ihrem Webserver enthalten und wird vom Paketfilter trotzdem durchgelassen. also beispielsweise mit Ihrem Webserver als Ziel. 4.

Jegliche Art von Netzwerkverkehr. 349)) verwenden.1. Demilitarisierte Zone (DMZ) Während Hosts. Vorgänge im externen Netzwerk zu steuern. Wenn die Hosts in diesem Netzwerk IP-Adressen aus dem privaten Bereich (siehe Abschnitt 18. Legen Sie für alle Zonen die zulässigen Dienste und Protokolle fest. Diese Regelsätze gelten jedoch nur für Pakete. 116)). sowohl vom externen als auch vom internen Netzwerk aus erreicht werden können. Sicherheit in Linux 115 . wobei es sich in den meisten Fällen um ein LAN handelt. Daher muss jede Schnittstelle mit eingehendem Verkehr einer der drei Zonen zugeordnet werden. In den meisten Fällen handelt es sich bei dem externen Netzwerk um das Internet. „Netzmasken und Routing“ (S. dass es keine Möglichkeit gibt.2. können sie selbst nicht auf das interne Netzwerk zugreifen. die sich in dieser Zone befinden. der gemäß der Filterregel nicht explizit erlaubt ist. da die DMZ-Systeme vom internen Netzwerk isoliert sind. müssen Sie NAT (Network Address Translation) aktivieren. ein WLAN. Lokal generierte Pakete werden von der Firewall nicht erfasst. B. die sehr gut kommentiert ist.drei Sicherheitszonen. muss der Host vor diesem geschützt werden. obwohl nur die erste und die zweite Zone in der folgenden Beispielkonfiguration berücksichtigt werden: Externe Zone Davon ausgehend. die von entfernten Hosts stammen. Die Konfiguration kann mit YaST ausgeführt werden (siehe „Konfiguration mit YaST“ (S. es könnte aber auch ein anderes unsicheres Netzwerk sein. Sie lässt sich jedoch auch manuell in der Datei /etc/sysconfig/ SuSEfirewall2 vornehmen. Diese Konfiguration kann als zusätzliche Verteidigungslinie vor das interne Netzwerk gesetzt werden. Interne Zone Diese Zone bezieht sich auf das private Netzwerk. Zudem stehen weitere Beispielszenarien in /usr/share/doc/packages/SuSEfirewall2/EXAMPLES zur Verfügung. wird durch iptables unterdrückt. damit Hosts im internen Netzwerk auf externe Hosts zugreifen können. z.

Wählen Sie Sicherheit und Benutzer → Firewall. 116 Referenz . Um die neuen Einstellungen für eine aktive Firewall zu übernehmen. Wenn ein Server auf dem System konfiguriert und aktiviert ist. deaktiviert oder neu konfiguriert werden. auf die Sie über die Baumstruktur auf der linken Seite direkt zugreifen können.Konfiguration mit YaST WICHTIG: Automatische Firewall-Konfiguration Im Anschluss an die Installation startet YaST automatisch eine Firewall für alle konfigurierten Schnittstellen. Außerdem können Sie in diesem Dialogfeld die Firewall starten und stoppen. In einer Standardinstallation wird SuSEfirewall2 automatisch gestartet. wählen Sie Einstellungen speichern und Firewall nun neu starten. Die Firewall kann mit dem YaST-Firewall-Konfigurationsmodul aktiviert. kann YaST die automatisch generierte Firewall-Konfiguration mit den Optionen Firewall-Ports auf ausgewählten Schnittstellen öffnen oder Firewall-Port öffnen in den Serverkonfigurationsmodulen ändern. Der Zugriff auf die YaST-Dialogfelder für die grafische Konfiguration erfolgt über das YaST-Kontrollzentrum. Start In diesem Dialogfeld legen Sie das Startverhalten fest. Einige Servermodul-Dialogfelder enthalten die Schaltfläche Firewall-Details zum Aktivieren zusätzlicher Dienste und Ports. Die Konfiguration ist in sieben Abschnitte aufgeteilt.

Um eine Schnittstelle zu einer Zone hinzuzufügen. markieren Sie sie.2 Die YaST-Firewall-Konfiguration Schnittstellen Hier werden alle bekannten Netzwerkschnittstellen aufgelistet. dem Internet. z. Mit der Option Benutzerdefiniert können Sie auch eine spezielle Schnittstelle mit eigenen Einstellungen erstellen. und ermöglichen den Hosts im internen Netzwerk gleichzeitig den transparenten Zugriff auf das externe Netzwerk. vor der es geschützt ist. um einer Zone Dienste Ihres Systems zur Verfügung zu stellen. klicken Sie auf Bearbeiten und wählen Sie anschließend eine der verfügbaren Zonen. Um eine Schnittstelle aus einer Zone zu entfernen. Das System ist standardmäßig nur vor externen Zonen geschützt. markieren Sie sie. Anforderungen vom externen an das interne Netzwerk werden blockiert. Erlaubte Dienste Diese Option benötigen Sie.Abbildung 4. klicken Sie auf Bearbeiten und wählen Sie Keine Zone zugewiesen. die den externen Hosts zur Verfügung stehen sollen. Anforderungen aus dem internen Netzwerk werden scheinbar vom Masquerading-Server ausgegeben. der extern sichtbar ist. B. Masquerading Mit der Masquerading-Funktionalität verbergen Sie das interne Netzwerk vor externen Netzwerken. Wenn dem externen Netzwerk spezielle Dienste eines Sicherheit in Linux 117 . Aktivieren Sie die Dienste nach Auswahl der gewünschten Zone in Erlaubte Dienste für gewählte Zone. Sie müssen alle Dienste explizit zulassen.

oder Masquerading-Konfiguration bezieht. Ports und Protokolle aufgelistet. fügen Sie für den Dienst eine spezielle Umadressierungsregel hinzu. werden hier nicht näher erläutert. Für jeden Konfigurationsschritt wird angegeben. In dieser Zusammenfassung sind alle zulässigen Dienste. Nicht akzeptierte Pakete werden verworfen (DROPPED) oder abgelehnt (REJECTED). Wenn Sie die Firewall-Konfiguration abgeschlossen haben. Weitere Informationen hierzu finden Sie in der Datei /etc/services. die nicht akzeptiert werden. Mit der Option Zurück können Sie die Konfiguration ändern. wählen Sie Weiter. Nur kritische protokollieren oder Keine protokollieren für beide Regeln. da sich Windows-Hosts über Broadcasts miteinander bekannt machen und daher viele Pakete generieren. Wählen Sie die Option Alles protokollieren. Sie sind nur für komplexere Netzwerkinfra- 118 Referenz . um die Konfiguration zu speichern. Die in der Konfigurationsdatei erwähnten Aspekte. um dieses Dialogfeld zu schließen. welche Pakete als verbürgt angesehen werden sollen. Aktivieren Sie darin alle Einstellungen. Manuelle Konfiguration In den folgenden Abschnitten sind detaillierte Anweisungen für eine erfolgreiche Konfiguration enthalten. ob er sich auf die Firewall. Broadcast In diesem Dialogfeld konfigurieren Sie die UDP-Ports.internen Computers zur Verfügung gestellt werden sollen. die mit der DMZ (Demilitarisierte Zone) in Zusammenhang stehen. Protokollierungs-Level Für die Protokollierung gibt es zwei Regeln: eine für akzeptierte und eine für nicht akzeptierte Pakete. Unter Details konfigurieren Sie. Wählen Sie Übernehmen. Dies kann problematisch sein. IPsec-Unterstützung In diesem Dialogfeld konfigurieren Sie. Hier können Sie auch das Protokollieren von Broadcasts aktivieren. Fügen Sie die erforderlichen Nummern der Ports oder Dienste getrennt durch Leerzeichen für die entsprechende Zone hinzu. ob dem externen Netzwerk der IPsec-Dienst zur Verfügung stehen soll. die Broadcasts zulassen sollen. Anschließend wird eine zonenbezogene Zusammenfassung der Firewall-Konfiguration geöffnet. die nicht akzeptiert werden.

FW_MASQUERADE (Masquerading) Setzen Sie diese Variable auf yes. wenn zwischen den Hosts des internen Netzwerks und dem Internet ein Proxyserver geschaltet ist. FW_DEV_INT (Firewall. FW_ROUTE (Firewall. da ihre private Netzwerkadressen (z.d/rc?.10. Wenn es kein internes Netzwerk gibt und die Firewall nur den Host schützt. Masquerading) Wenn Sie die Masquerading-Funktion benötigen. Dadurch wird den internen Hosts eine virtuelle direkte Verbindung zum Internet zur Verfügung gestellt.strukturen größerer Unternehmen (Corporate Networks) relevant.1" Sicherheit in Linux 119 . Beispiel: FW_MASQ_NETS="192. Die internen Hosts sind von außen nicht sichtbar. Masquerading) Das mit dem Internet verbundene Gerät. für die die Masquerading-Funktion aktiviert werden soll. 192.x. Geben Sie für eine Modemverbindung ppp0 ein. wenn Sie die Masquerading-Funktion benötigen. Für DSL-Verbindungen geben Sie dsl0 ein. geben Sie auto an.0/24 192. machen Sie keine Angaben.d/ angelegt. Masquerading) Das mit dem internen. Sie sollten den externen Zugriff auf das interne Netzwerk in der Regel jedoch nicht zulassen. eth0). durch Leerzeichen getrennt an. auf dem sie ausgeführt wird. Für die von einem Proxyserver zur Verfügung gestellten Dienste ist das Masquerading nicht erforderlich. privaten Netzwerk verbundene Gerät (z.168. Geben Sie für eine ISDN-Verbindung ippp0 ein. B. wenn der Zugriff auf das interne Netzwerk zugelassen werden soll. die eine aufwändige Konfiguration und umfassende Kenntnisse erfordern. Um die der Standardroute entsprechende Schnittstelle zu verwenden. Setzen Sie diese Variable für Firewalls ohne Masquerading auf yes. setzen Sie diese Variable auf yes. FW_DEV_EXT (Firewall. In diesem Fall müssen die internen Computer offiziell zugewiesene IP-Adressen haben. Dadurch werden symbolische Links für die SuSEfirewall2_*-Skripts in den Verzeichnissen unter /etc/init.x) von Internetroutern ignoriert werden. Es ist jedoch weitaus sicherer.168. FW_MASQ_NETS (Masquerading) Geben Sie die Hosts oder Netzwerke.0. B.168. Aktivieren Sie zunächst mit dem YaST-Runlevel-Editor SuSEfirewall2 für Ihren Runlevel (wahrscheinlich 3 oder 5).

10. Geben Sie in diesem Fall die zu verwendenden UDP-Ports an. aber die Einstellungen werden auf das interne Netzwerk angewendet. FW_SERVICES_INT_UDP (Firewall) Siehe FW_SERVICES_INT_TCP. Testen Sie auf einem externen Host anschließend beispielsweise mit telnet. TFTP. DHCP und anderen verwendet. 120 Referenz . um den Firewall-Host vor Angriffen aus dem internen Netzwerk zu schützen. Dem internen Netzwerk stehen nur die explizit aktivierten Dienste zur Verfügung.FW_PROTECT_FROM_INT (Firewall) Setzen Sie diese Variable auf yes. die in der Regel keine Dienste benötigt. Die Notation ist dieselbe wie für FW_SERVICES_EXT_TCP. IPSec.168. indem Sie SuSEfirewall2 start als root eingeben. FW_SERVICES_EXT_UDP (Firewall) Lassen Sie dieses Feld leer. Für eine normale Arbeitsstation. FW_SERVICES_EXT_TCP (Firewall) Geben Sie die zu öffnenden TCP-Ports an. wenn FW_PROTECT_FROM_INT auf yes gesetzt ist. Die Dokumentation von nmap befindet sich im Verzeichnis /usr/share/doc/ packages/nmap und die Dokumentation von nessus ist nach der Installation des entsprechenden Pakets im Verzeichnis /usr/share/doc/packages/ nessus-core enthalten. Sie möchten einen aktiven UDP-Dienst verfügbar machen.0 DST=192.168. müssen Sie hier keine Angaben machen. Die Firewall-Regeln werden erstellt. Prüfen Sie anschließend /var/log/messages. ob die Verbindung tatsächlich abgelehnt wird. es sei denn. FW_SERVICES_INT_TCP (Firewall) Mit dieser Variablen legen Sie die für das interne Netzwerk verfügbaren Dienste fest.1 LEN=60 TOS=0x10 PREC=0x00 TTL=64 ID=15330 DF PROTO=TCP SPT=48091 DPT=23 WINDOW=5840 RES=0x00 SYN URGP=0 OPT (020405B40402080A061AFEBC0000000001030300) Weitere Pakete zum Testen der Firewall-Konfiguration sind „nmap“ oder „nessus“. Diese Variable muss nur gesetzt werden. UDP wird von Diensten wie DNS-Servern. Testen Sie im Anschluss an die Konfiguration die Firewall.10. wo Sie ähnliche Einträge wie die folgenden sehen sollten: Mar 15 13:21:38 linux kernel: SFW2-INext-DROP-DEFLT IN=eth0 OUT= MAC=00:80:c8:94:c3:e7:00:a0:c9:4d:27:56:08:00 SRC=192. Weitere Informationen hierzu finden Sie auch unter FW_SERVICES_INT_TCP und FW_SERVICES_INT_UDP.

rcp und ftp zur Ver- Sicherheit in Linux 121 . 4.2 SSH: Sicherer Netzwerkbetrieb Mit der steigenden Anzahl installierter Computer in Netzwerkumgebungen wird es häufig nötig. B. sogar ohne dass der autorisierte Benutzer etwas davon bemerkt. Die komplette Authentifizierung (gewöhnlich Benutzername und Passwort) und Kommunikation sowie sämtlicher Datenaustausch zwischen den Hosts erfolgen hier verschlüsselt. SUSE Linux bietet SSH-Funktionen mit dem Paket OpenSSH an. dass ein Benutzer zur Authentifizierung Zeichenfolgen für Anmeldung und Passwort sendet.5 Weitere Informationen Die aktuellsten Informationen sowie weitere Dokumentationen zum PaketSuSEfirewall2 finden Sie im Verzeichnis /usr/share/doc/packages/ SuSEfirewall2. Solange diese Zeichenfolgen als Klartext übertragen werden. um Administrator. wenn der Schlüssel bekannt ist. z. Die SSH-Software liefert den gewünschten Schutz.netfilter. Daher stehen Ihnen die Programme ssh.oder root-Zugriff zu erhalten oder in andere Systeme einzudringen. das traditionelle FTP-Protokoll und einige Kopierverbindungen zwischen Computern. Zwar ist auch mit SSH weiterhin das Abfangen der übertragenen Daten möglich. das illegale Konto könnte auch benutzt werden.1 Das Paket OpenSSH SUSE Linux installiert das Paket OpenSSH standardmäßig. um Zugriff auf dieses Benutzerkonto zu erhalten. rlogin. doch ist der Inhalt verschlüsselt und kann nur entziffert werden. Es gibt andere ungeschützte Kommunikationskanäle. Das bedeutet gewöhnlich. Damit wären nicht nur alle Dateien des Benutzers für einen Angreifer zugänglich. 4.1. scp und sftp als Alternative für telnet. das gegen Ausspionierung keine Vorkehrungen in Form von Verschlüsselung oder anderen Sicherheitsmechanismen trifft. In der Vergangenheit wurden Fernverbindungen mit telnet aufgebaut. Die Homepage der Projekte „netfilter“ und „iptables“ unter der Adresse http://www.2.4.org bietet eine umfassende Sammlung von Dokumenten in zahlreichen Sprachen. rsh. auf Hosts von einem entfernten Standort aus zuzugreifen. können sie abgefangen und missbraucht werden. So wird durch SSH sichere Kommunikation über unsichere Netze wie das Internet möglich.

Es ist ein sicherer und verschlüsselter Ersatz für rcp.fügung.tex vom Host earth auf den Host sun. Nachdem das Passwort eingegeben wurde. Eine Option -l existiert für diesen Befehl nicht. Die Programmausgabe erfolgt auf dem lokalen Terminal des Hosts earth. In der Standardkonfiguration ist der Zugriff auf ein SUSE Linux-System nur mit den OpenSSH-Dienstprogrammen möglich. mit YaST. 0. Zudem wird am rechten Rand die geschätzte Restübertragungszeit (bis zum 122 Referenz . z. Darüber hinaus bietet ssh die von rsh bekannte Möglichkeit. mit dem Befehl ssh sun auf dem Rechner sun anmelden. Das Programm slogin ist lediglich ein symbolischer Link. B. Nur so wird auch der zweite Befehl auf dem Host sun ausgeführt. 0. ssh otherplanet "uptime.2. Sie können sich z.sicheres Kopieren scp kopiert Dateien auf einen entfernten Computer.02 Anführungszeichen sind hier zum Zusammenfassen der beiden Anweisungen in einem Befehl erforderlich. z.15. Befehle auf einem entfernten System auszuführen.3 scp . Im folgenden Beispiel wird der Befehl uptime auf dem Host sun ausgeführt und ein Verzeichnis mit dem Namen tmp angelegt. 4.B. Der Host fordert Sie dann zur Eingabe des Passworts am System sun auf. ssh -l augustine sun oder ssh augustine@sun. Wenn sich die Benutzernamen auf earth und sun unterscheiden. und nur wenn dies die Firewall erlaubt. können Sie einen abweichenden Namen angeben.04. Beispielsweise kopiert scp MyLetter. geben Sie den letzteren im Format benutzername@host an. Nach erfolgreicher Authentifizierung können Sie dort in der Befehlszeile oder interaktiv. load average: 0. mkdir tmp" tux@otherplanet's password: 1:21pm up 2:17. arbeiten. Es ersetzt somit gleichermaßen telnet und rlogin. beginnt scp mit der Datenübertragung und zeigt dabei den Fortschritt durch einen von links nach rechts anwachsenden Balken aus Sternen an.2 Das ssh-Programm Mit ssh können Sie Verbindung zu einem entfernten System aufnehmen und dort interaktiv arbeiten. der auf ssh weist. B. Sollten sich der lokale Benutzername und der auf dem entfernten System unterscheiden. 4.2.tex sun: die Datei MyLetter. 9 users.

Die Schlüsselpaare bestehen jeweils aus einem privaten und einem öffentlichen (engl. Eine Verbindung wird vom SSH-Client eingeleitet. Deshalb wird dies als ein Public-Key-basiertes Verfahren bezeichnet. 4. Der wartende SSH-Daemon und der anfragende SSH-Client tauschen Identifikationsdaten aus. um die Protokoll. Die Dateirechte werden durch die Standardinstallation entsprechend eingestellt.Erreichen des rechten Balkenendes) angezeigt. Bei einer sftp-Sitzung können Sie viele bereits von ftp bekannte Befehle verwenden.5 Der SSH-Daemon (sshd) – Serverseite Damit die SSH-Clientprogramme ssh und scp eingesetzt werden können. -C sorgt für komprimierte Datenübertragung. darf ausschließlich der Systemadministrator die Dateien der privaten Schlüssel einsehen. Dadurch wird das zu übertragende Datenvolumen minimiert.sichere Dateiübertragung Das Programm sftp kann anstelle von scp zur sicheren Dateiübertragung verwendet werden.und Softwareversion abzugleichen und eine Verbindung durch den falschen Port auszuschlie- Sicherheit in Linux 123 . Während des ersten Starts generiert der Daemon drei Schlüsselpaare. Das Unterverzeichnis wird automatisch angelegt. Sie sind für alle Benutzer lesbar. deren Dateinamen unbekannt sind. 4. Um die Sicherheit der Kommunikation über SSH zu gewährleisten. muss im Hintergrund der SSH-Daemon laufen und an TCP/IP-Port 22 auf Verbindungen warten. den Zeitstempel von Dateien unverändert zu belassen. von Vorteil.2.pub erkennbar) an den Client weitergegeben. Der Befehl scp -r src/ sun:backup/ kopiert den kompletten Inhalt des Verzeichnisses src einschließlich aller Unterverzeichnisse in das Unterverzeichnis backup auf dem Host sun. wenn es noch nicht existiert.2. aber der Prozessor stärker belastet. public) Teil. Die privaten Schlüssel werden lediglich lokal vom SSH-Daemon benötigt und dürfen an niemanden weitergegeben werden.4 sftp . scp bietet auch ein rekursives Kopierverfahren für ganze Verzeichnisse. Die Option -p weist scp an. Jegliche Ausgabe kann durch die Option -q unterdrückt werden. Demgegenüber werden die öffentlichen Schlüsselbestandteile (an der Namenserweiterung . Das Programm sftp ist gegenüber scp vor allem beim Übertragen von Daten. der die Verbindung anfordert.

So können so genannte „man-in-the-middle“Angriffe unterbunden werden. den Sitzungsschlüssel mangels des passenden privaten Gegenstücks zu entschlüsseln. OpenSSH unterstützt zur Kommunikation zwischen SSH-Server und SSH-Client das SSH-Protokoll in den Versionen 1 und 2. Dort ist ebenfalls beschrieben. Somit kann allein der kontaktierte SSH-Daemon mit seinen privaten Schlüsseln den Sitzungsschlüssel entziffern (siehe man /usr/share/doc/packages/openssh/RFC. sind gleichzeitig viele SSH-Verbindungen möglich.ßen. Name und IP-Adresse eines anderen vorzutäuschen. Jedoch kann mit dem Schalter -1 auch Version 1 des SSH-Protokolls erzwungen werden. folgen Sie den Anweisungen in /usr/share/ doc/packages/openssh/README. Beide Seiten verwenden einen Algorithmus nach Diffie-Hellman. Versuche von fremden SSH-Servern. d. oder durch die Unfähigkeit des Servers.ssh/known_hosts enthalten ist. Bei Verwendung der SSH Protokoll-Version 1 sendet der Server dann seinen öffentlichen Host-Schlüssel und einen stündlich vom SSH-Daemon neu generierten Server-Schlüssel. Es empfiehlt sich.ssh/known_hosts ab. Derartige Angriffe fallen entweder durch einen Host-Schlüssel auf. Der Client legt nach der ersten Kontaktaufnahme mit einem entfernten Host alle öffentlichen HostSchlüssel in ~/. Diese einleitende Phase der Verbindung lässt sich mithilfe der Fehlersuchoption -v des SSH-Clients genau beobachten.SuSE. der nicht in ~/. Version 2 des SSH-Protokolls kommt ohne den Server-Schlüssel aus. wie Sie in wenigen Schritten eine SSH 1-Umgebung in eine funktionierende SSH 2Umgebung umwandeln. um ihre Schlüssel auszutauschen. Der SSH-Client teilt dem Server zudem die gewählte Verschlüsselungsmethode (engl. h. cipher) mit. Anhand dieser beiden verschlüsselt der SSH-Client einen von ihm frei gewählten Sitzungsschlüssel und sendet diesen an den SSH-Server. Da ein untergeordneter Prozess des ursprünglichen SSH-Daemons antwortet. Die zur Entschlüsselung des Sitzungsschlüssels zwingend erforderlichen privaten Hostund Server-Schlüssel können nicht aus den öffentlichen Teilen abgeleitet werden.nroff). Möchten Sie nach einem Update weiterhin SSH 1 beibehalten. die in /etc/ssh/ abgelegten privaten und öffentlichen Schlüssel extern und gut geschützt zu archivieren. Version 2 des SSH-Protokolls wird standardmäßig verwendet. Nach einer Neuinstallation von SUSE Linux wird automatisch die aktuelle Protokoll-Version 2 eingesetzt. So können Änderungen der Schlüssel erkannt 124 Referenz .

indem Sie den Passwortsatz wiederholen. Entsprechend liefert das SSH-Paket ein weiteres Werkzeug. anmelden. muss der vorhandene Eintrag zu diesem System aus ~/. KDM oder XDM. Auf Dauer ist diese Vorgehensweise mühsamer als die Eingabe eines Passworts. B.ssh/authorized_keys.pub) auf den entfernten Computer und speichern Sie ihn dort unter ~/. Sie erreichen dies am einfachsten. Verwenden Sie keine kurzen und einfachen Wörter oder Phrasen.2. Nach der Eingabe von ssh-keygen -t rsa oder ssh-keygen -t dsa wird das Schlüsselpaar generiert und der Basisdateiname zur Ablage der Schlüssel erfragt. Anschließend wird der Speicherort des privaten und öffentlichen Schlüssels. Zur Authentifizierung werden Sie beim nächsten Verbindungsaufbau nach Ihrem Passwortsatz gefragt. überprüfen Sie bitte Ort und Inhalt dieser Dateien. Dazu liefert das SSH-Paket ein Hilfsprogramm: ssh-keygen. SSH realisiert dies mithilfe eines weiteren Schlüsselpaares. Alternativ können Sie ssh-agent startx verwenden.6 SSH-Authentifizierungsmechanismen Nun erfolgt die eigentliche Authentifizierung. Wie bei den abzulösenden Programmen rsh und rlogin muss deshalb auch SSH eine im Alltag einfach zu nutzende Authentifizierungsmethode bieten.xsession die Variable usessh auf yes setzen und sich über einen Display-Manager. ssh-agent. das vom Benutzer erzeugt wird. ausgegeben. z. Dies erspart den Benutzern beunruhigende Warnungen.und nach einer Neuinstallation die alten wieder eingespielt werden. Kopieren Sie den öffentlichen Teil des Schlüssels (in unserem Beispiel id_rsa. um Ihren alte Passwortsatz zu ändern. indem Sie am Anfang der Datei . 4. Sicherheit in Linux 125 . wie bereits oben erwähnt. Bestätigen Sie die Voreinstellung und beantworten Sie die Frage nach einem Passwortsatz Auch wenn die Software einen leeren Passwortsatz vorschlägt. dass es sich trotz der Warnung um den korrekten SSH-Server handelt. die in ihrer einfachsten Form aus der Eingabe eines Passworts besteht. Ziel von SSH war die Einführung einer sicheren.pub. aber zugleich bedienerfreundlichen Software. sollte bei der hier beschriebenen Vorgehensweise ein Text von 10 bis 30 Zeichen Länge gewählt werden. Dazu wird die gesamte X-Sitzung als untergeordneter Prozess von ssh-agent gestartet. in unserem Beispiel der Dateien id_rsa und id_rsa. Verwenden Sie ssh-keygen -p -t rsa oder ssh-keygen -p -t dsa. Sollte dies nicht der Fall sein. Wenn sichergestellt ist. das für die Dauer einer X-Sitzung private Schlüssel bereithält. Bestätigen Sie die Eingabe.ssh/known_hosts entfernt werden.

Sofern Sie Ihren öffentlichen Schlüssel wie oben beschrieben verteilt haben.und Weiterleitungsmechanismen Über die zuvor beschriebenen sicherheitsbezogenen Verbesserungen hinaus erleichtert SSH auch die Verwendung von entfernten X-Anwendungen.bzw.ssh/config permanent aktiviert werden. Insoweit Sie ssh mit der Option -X aufrufen.SuSE dokumentiert. 4. So können Sie an unterschiedlichen Computern arbeiten. In den folgenden Beispielen wird SSH angewiesen. werden Sie jetzt nicht mehr nach Ihrem Passwort gefragt. Allerdings ist das nur möglich. Beenden Sie beim Verlassen Ihres Computers Ihre X-session unbedingt oder sperren Sie ihn durch eine entsprechende Anwendung. sind auch in der Datei /usr/share/doc/packages/ openssh/README. können jedoch in der systemweiten Konfigurationsdatei /etc/ssh/sshd_config oder der benutzereigenen Datei ~/. Beide Mechanismen sind in der Voreinstellung deaktiviert. xlock. den SMTP. Alle wichtigen Änderungen. Gleichzeitig unterbindet dies die bisher bestehenden Abhörmöglichkeiten bei entfernt aufgerufenen und lokal betrachteten XAnwendungen. wird auf dem entfernten Computer automatisch die DISPLAYVariable gesetzt und alle X-Ausgaben werden durch die bestehende SSH-Verbindung an den entfernten Computer exportiert. Authentifizierungs. ssh kann auch zur Umleitung von TCP/IP-Verbindungen benutzt werden.2. wenn Sie zuvor Ihren öffentlichen Schlüssel auf die beteiligten Zielhosts verteilt und dort korrekt gespeichert haben.7 X-. z. POP3-Port umzuleiten: ssh -L 25:sun:25 earth Mit diesem Befehl wird jede Verbindung zu Port 25 (SMTP) von earth auf den SMTPPort von sun über den verschlüsselten Kanal weitergeleitet. E-Mail kann so von jedem beliebigen Ort mit Netzanschluss zur Ausliefe- 126 Referenz . ohne ein Passwort eingeben zu müssen. Dies ist insbesondere für Benutzer von SMTP-Servern ohne SMTP-AUTH oder POP-before-SMTP-Funktionen von Nutzen. B.Nun können Sie ssh oder scp wie gewohnt verwenden. die sich mit der Einführung von Version 2 des SSH-Protokolls ergeben haben. Durch Hinzufügen der Option -A wird der Authentifizierungsmechanismus von sshagent auf den nächsten Computer mit übernommen.

wenn Dritte entweder über eine Netzwerkverbindung oder direkt Zugriff auf das System haben. Zusätzliche Informationen entnehmen Sie den Manualpages für die einzelnen Programme und den Dateien unter /usr/share/doc/packages/openssh. In der folgenden Liste sind einige mögliche Szenarien beschrieben. desto sorgfältiger sollten Sie im Umgang mit Ihren Daten sein. können Fremde nicht auf Ihre Daten zugreifen. Notebooks Wenn Sie mit Ihrem Notebook reisen. alle Festplattenpartitionen. die kein unberechtigter Dritter einsehen sollte. Nachdem die verschlüsselten Medien erfolgreich eingehängt wurden. Je vernetzter und mobiler Sie arbeiten. dass die in diesem Abschnitt beschriebenen Methoden nicht Ihr laufendes System vor Manipulation schützen können. Der SMTP. 4.rung durch den „home“-Mailserver übertragen werden. Bei bestehender SSH-Verbindung wird E-Mail wie gewohnt als normaler Benutzer verschickt und abgerufen. die vertrauliche Daten enthalten.und POP3-Host muss für diese Aufgabe auf localhost konfiguriert werden. können alle Benutzer mit den entsprechenden Berechtigungen darauf zugreifen. empfiehlt es sich. Wenn Sie Ihr Notebook verlieren oder es gestohlen wird. Analog können mit folgendem Befehl alle POP3-Anfragen (Port 110) an earth auf den POP3-Port von sun weitergeleitet werden: ssh -L 110:sun:110 earth Beide Befehle müssen Sie als Benutzer root ausführen. zu verschlüsseln. hat jeder Benutzer. lokalen Ports erfolgt. Das Verschlüsseln von Medien ergibt dann Sinn. da die Verbindung zu privilegierten. WARNUNG: Das Verschlüsseln von Medien bietet nur eingeschränkten Schutz Beachten Sie. wenn diese Sicherheit in Linux 127 . wenn Sie Ihren Computer verloren haben oder er gestohlen wird und unbefugte Personen Ihre vertraulichen Daten lesen möchten. Die Verschlüsselung von Dateien oder von ganzen Partitionen macht immer dann Sinn.3 Verschlüsseln von Partitionen und Dateien Vertrauliche Daten.

Wechselmedien USB-Flash-Laufwerke oder externe Festplatten sind ebenso diebstahlgefährdet wie Notebooks. Das in Abschnitt „Partitionierung“ (Kapitel 2. Sie müssen sie im Partitionsdialogfeld manuell hinzufügen. Partitionen oder einzelne Dateien zu verschlüsseln. Dateien oder Partitionen zu verschlüsseln. Arbeitsstationen In Unternehmen. Anlegen einer verschlüsselten Partition während der Installation WARNUNG: Passworteingabe Beachten Sie bei der Passworteingabe die Warnungen zur Passwortsicherheit und merken Sie sich das Passwort gut. Die Standardpartitionierung. in dem Sie die Partitionierungsparameter für die neue Partition. da sie sich in das vorhandene Partitionsschema problemlos einfügt. sieht keine verschlüsselte Partition vor. empfiehlt es sich. 4. Systemkonfiguration mit YaST.1 Einrichten eines verschlüsselten Dateisystems mit YaST YaST bietet Ihnen sowohl während der Installation als auch im installierten System die Möglichkeit. Ohne das Passwort können Sie die verschlüsselten Daten weder öffnen noch wiederherstellen. Zum Verschlüsseln einer gesamten Partition legen Sie eine zu verschlüsselnde Partition im Partitionsschema fest. wie sie YaST bei der Installation vorschlägt. Es wird ein Dialogfeld geöffnet. Auch in diesem Fall bietet ein verschlüsseltes Dateisystem Schutz gegen den unbefugten Zugriff durch Dritte. B. Eine verschlüsselte Datei kann jederzeit erstellt werden.sich in einem verschlüsselten Dateisystem oder in einer einzelnen verschlüsselten Datei befinden. die gewünschte Formatierung und den 128 Referenz . z. ↑Start) beschriebene YaST-Expertendialogfeld für die Partitionierung bietet die Möglichkeit zum Anlegen einer verschlüsselten Partition. Klicken Sie wie beim Anlegen einer normalen Partition auf Anlegen.3. in denen fast jede Person auf Ihren Computer zugreifen kann.

Wenn Sie die Partition nicht mehr benötigen. sondern wählen Sie Bearbeiten. dass andere Benutzer auf sie zugreifen. hängen Sie sie manuell ein mit mount Name_der_Partition Einhängepunkt. das Betriebssystem setzt den Bootvorgang wie gewohnt fort und blockiert somit den Zugriff auf Ihre Daten. aktivieren Sie die Option Nicht beim Systemstart einhängen im Dialogfeld Optionen für Fstab. wenn Sie zur Eingabe des Passworts aufgefordert werden. Wenn das verschlüsselte Dateisystem nur bei Bedarf eingehängt werden soll. Verneinen Sie anschließend die Nachfrage. indem Sie auf Dateisystem verschlüsseln klicken. wenn Sie dazu aufgefordert werden. wenn Sie das Dialogfeld durch Klicken auf OK schließen. um fortzufahren. Um sie anschließend verfügbar zu machen. Sicherheit in Linux 129 . Geben Sie im folgenden Dialogfeld das Passwort zweimal ein. Wenn die verschlüsselte Partition nicht während des Bootvorgangs eingehängt werden soll. Die neue verschlüsselte Partition wird erstellt. ob Sie das Passwort erneut eingeben möchten. drücken Sie Eingabe . Nach dem Einhängen steht die Partition allen Benutzern zur Verfügung. Schließen Sie den Prozess ab. Das verschlüsselte Dateisystem wird in diesem Fall nicht eingehängt. Wählen Sie auf einem laufenden System im YaST-Kontrollzentrum die Option System → Partitionierung. Beim Booten des Systems werden Sie vor dem Einhängen der Partition zur Eingabe des Passworts aufgefordert. festlegen können. Führen Sie alle verbleibenden Schritte wie oben beschrieben aus. Klicken Sie auf Ja. Geben Sie das Passwort ein. Klicken Sie nicht wie oben beschrieben auf Anlegen. um zu verhindern. hängen Sie sie aus mit unmount Name_der_Partition. Einrichten einer verschlüsselten Partition im laufenden System WARNUNG: Aktivieren der Verschlüsselung auf einem laufenden System Das Anlegen verschlüsselter Partitionen auf einem laufenden System erfolgt wie das Anlegen der Partitionen während der Installation. Durch das Verschlüsseln einer vorhandenen Partition werden jedoch alle darauf enthaltenen Daten zerstört.Einhängepunkt. Die betreffende Partition wird beim Booten des Systems nicht eingehängt.

Dateien oder Partitionen auf solchen Medien können wie oben beschrieben verschlüsselt werden. dass bei eingehängter Partition root immer auf die Daten zugreifen kann. Um dies zu verhindern. vi fordert Sie auf. Dies wird empfohlen. ob das verschlüsselte Dateisystem beim Booten des Systems eingehängt werden soll. Geben Sie allerdings nicht an. Sie werden mithilfe eines LoopDevice eingehängt und verhalten sich wie normale Partitionen. Um die Sicherheit noch mehr zu erhöhen. Diese werden im selben YaST-Dialogfeld erstellt.3. können Sie die verschlüsselte Textdatei in einer verschlüsselten Partition ablegen. 4. da sie in der Regel nur an das laufende System angeschlossen werden.Installieren verschlüsselter Dateien Anstelle einer Partition können Sie für vertrauliche Daten in einzelnen Dateien auch verschlüsselte Dateisysteme erstellen. Wählen Sie Kryptodatei und geben Sie den Pfad zu der zu erstellenden Datei sowie den Platzbedarf der Datei an. Der Vorteil verschlüsselter Dateien ist. kann vi im verschlüsselten Modus verwendet werden. ein neues Passwort festzulegen und verschlüsselt anschließend den Inhalt der Datei. Verschlüsseln von Dateien mit vi Der Nachteil verschlüsselter Partitionen ist. Übernehmen Sie die Voreinstellungen für die Formatierung und den Dateisystemtyp.2 Verschlüsseln des Inhalts von Wechselmedien Wechselmedien wie externe Festplatten oder USB-Sticks werden von YaST ebenso erkannt wie andere Festplatten auch. Bei jedem Zugriff auf die Datei fordert vi das richtige Passwort an. da die vi-Verschlüsselung nicht sehr stark ist. dass diese Medien beim Booten des Systems eingehängt werden sollen. ohne dass die Festplatte neu partitioniert werden muss. 130 Referenz . Geben Sie zur Bearbeitung einer neuen Datei vi -x Dateiname ein. dass sie dem System hinzugefügt werden können. Geben Sie anschließend den Einhängepunkt an und legen Sie fest.

AppArmor wird mit mehreren Werkzeugen geliefert. Mit Novell AppArmor brauchen Sie für die Programme. die insbesondere konzipiert wurde. die das Programm ausführen darf. wenn ein Fehler dem Angreifer erlaubt. Aktualisierungen oder Änderungen der Anwendungsprofile sind nur erforderlich. wenn sich die Softwarekonfiguration oder der gewünschte Aktionsumfang ändert. Für die wirksame Immunisierung eines Computersystems muss die Anzahl der Programme minimiert werden. AppArmor-Profile erzwingen die Einhaltung von Richtlinien und stellen damit sicher. AppArmor verlangt keine Programmierung oder den Einsatz von Skripts. dass Programme ihre Aufgaben erfüllen und keine anderen Aktionen ausführen. auf die das Programm zugreifen darf. Novell® AppArmor ist eine Lösung für Anwendungssicherheit. und Profile für diese Anwendungen anlegen. Sicherheit in Linux 131 . AppArmor bietet einfach zu handhabende Werkzeuge für Profilaktualisierungen oder -änderungen. die Sie bei der Profilerstellung unterstützen. die durch Angriffe gefährdet sind.4 Einschränken von Berechtigungen mit AppArmor Viele Sicherheitsrisiken resultieren aus Fehlern in vertrauenswürdigen Programmen. die immunisiert werden muss. Dann müssen die Programme so gut wie möglich abgesichert werden. nur Profile zu erstellen und verringern damit den Aufwand für die Immunisierung Ihres Computers erheblich. die Berechtigungen vermitteln. Als einzige Aufgabe muss der Administrator eine strenge Zugriffsrichtlinie und Ausführungsberechtigungen für jede Anwendung festlegen. Das Programm kann dieses Vertrauen nicht rechtfertigen. Mit AppArmor kann der Administrator den Bereich der Aktivitäten angeben. die ein Angreifer gerne hätte. sich diese Berechtigung zu verschaffen. Die Immunisierung eines Systems besteht im Wesentlichen aus dem Erstellen und Pflegen des AppArmor-Profilsatzes und der Überwachung aller Richtlinienverstöße oder Ausnahmen. die durch die Protokollfunktion von AppArmor aufgezeichnet werden. die das Programm ausführen darf. eine Liste der Dateien. Ein vertrauenswürdiges Programm läuft mit einer Berechtigung. und der Operationen. Die Erstellung von AppArmor-Profilen zur Einschränkung einer Anwendung ist sehr bequem und einfach. Administratoren müssen sich nur um die Anwendungen kümmern. um verdächtige Programme auf die geringste Berechtigungsstufe einzuschränken. h. indem er ein Sicherheitsprofil für diese Anwendung entwickelt — d.4. die in Ihrer Umgebung Angriffen ausgesetzt sind.

Die Leistung wird durch AppArmor nicht merklich eingeschränkt. da Novell AppArmor standardmäßig als Teil dieser Optionen installiert wird. muss der Administrator das Profil dieser Anwendung für die entsprechende Verhaltensweise anpassen. um ein System wirksam zu schützen. Wenn keine dieser Desktop-Optionen installiert oder sogar eine vollständig textbasierte Umgebung geplant ist.0-Administrationshandbuch.Benutzer bemerken AppArmor gar nicht. die eine GNOME. 4. YaST löst etwaige Abhängigkeiten auf und installiert alle Pakete automatisch. um den Paket-Manager zu beenden. die mit AppArmor ausgeführt werden müssen. Es läuft „im Hintergrund“ und erfordert keinerlei Benutzereingriffe. 132 Referenz . führen Sie mithilfe des YaST-Paket-Managers die folgenden Schritte aus.oder die KDE-Desktop-Auswahl installieren. 3 Verwenden Sie die Suchfunktion von YaST (Schlüsselwort „AppArmor“). 1 Melden Sie sich als root an und starten Sie YaST. Diese Anleitung umreißt die grundlegenden Aufgaben. können diesen Abschnitt überspringen. um die folgenden Pakete zu installieren: • • • • • • apparmor-parser libapparmor apparmor-docs yast2-apparmor apparmor-profiles apparmor-utils 4 Wählen Sie alle diese Pakete für die Installation aus und wählen Sie dann Übernehmen. Ausführlichere Informationen finden Sie im Novell AppArmor 2.1 Installation von Novell AppArmor Benutzer. 2 Wählen Sie im YaST-Kontrollzentrum Software → Software-Management. um die erforderlichen Pakete zu installieren. 5 Nachdem YaST die Systemkonfiguration aktualisiert hat. Wenn eine Aktivität der Anwendung nicht durch ein AppArmor-Profil abgedeckt ist oder durch AppArmor verhindert wird.4. wählen Sie Beenden.

3 Aktivieren von Novell AppArmor mithilfe von YaST Mithilfe des YaST-Runlevel-Werkzeugs aktivieren Sie Dienste permanent – diese Einstellungen bleiben auch einen Neustart Ihres Systems in Kraft. 3 Wählen Sie in der Diensteliste apparmor aus. „Aktivieren von Novell AppArmor mithilfe von YaST“ (S. Um AppArmor temporär – nur für die Dauer einer Sitzung – zu aktivieren.4. 5 Klicken Sie zum Übernehmen der Einstellungen auf Beenden.3. 133). 2 Starten Sie System → Systemdienste (Runlevel). Siehe Abbildung 4.4. gehen Sie wie folgt vor: Sicherheit in Linux 133 . 4 Klicken Sie zur permanenten Aktivierung von AppArmor auf Aktivieren. müssen Sie es explizit aktivieren. Verwenden Sie für diese Aufgabe die YaST-Systemdienste (Runlevel): 1 Melden Sie sich als root an und starten Sie YaST. Abbildung 4.2 Aktivieren von Novell AppArmor Nachdem Novell AppArmor installiert wurde. um sicherzustellen. dass es bei jedem Systemstart gestartet wird.

indem Sie die folgenden Punkte genau beachten: 1 Ermitteln Sie die Anwendungen. 140). 4 Übernehmen Sie die Einstellungen mit Fertig.4. Prüfen Sie die Ergebnisse und passen Sie die Profile bei Bedarf an. indem Sie AppArmor-Berichte erzeugen und auf Sicherheitsereignisse reagieren. 2 Erstellen Sie die erforderlichen Profile wie in „Erstellen und Ändern von Profilen“ (S. die ein Profil erhalten sollen“ (S. 3 Setzen Sie den AppArmor-Status auf AppArmor ist aktiviert. 138). 134 Referenz . 136) umrissen. Andernfalls müssen Sie auf Sicherheitsereignisse reagieren. 4 Aktualisieren Sie Ihre Profile. indem Sie auf Konfigurieren → Aktivieren → OK klicken. Weitere Informationen dazu finden Sie unter „Wählen der Anwendungen. wenn sich Ihre Umgebung ändert. 3 Bleiben Sie auf dem Laufenden über die Vorgänge auf Ihrem System. 135). 4. 2 Starten Sie Novell AppArmor → AppArmor-Kontrollleiste. Informationen finden Sie in „Aktualisieren Ihrer Profile“ (S. die ein Profil brauchen. Informationen finden Sie in „Konfigurieren von Novell AppArmor-Ereignisbenachrichtigung und -Berichten“ (S.1 Melden Sie sich als root an und starten Sie YaST.3 Einführung in die Erstellung von Anwendungsprofilen Bereiten Sie einen erfolgreichen Einsatz von Novell AppArmor auf Ihrem System vor. die das AppArmor-Berichtwerkzeug protokolliert.

Wählen der Anwendungen.0-Administrationshandbuch). Ermitteln Sie anhand der folgenden Liste die wahrscheinlichsten Kandidaten: Netzwerkagenten Programme (Server und Clients) haben offene Netzwerkports und Netzwerkagenten sind Serverprogramme. die Sie wirklich ausführen.1 Ausgabe von unconfined 19848 19887 19947 29205 /usr/sbin/cupsd not confined /usr/sbin/sshd not confined /usr/lib/postfix/master not confined /usr/sbin/sshd confined by '/usr/sbin/sshd (enforce)' In obigem Beispiel brauchen die Prozesse mit der Beschriftung not confined eventuell ein benutzerdefiniertes Profil zur Einschränkung. Benutzerclients (wie Mail-Clients und Webbrowser) haben ebenfalls offene Netzwerkports und vermitteln Berechtigungen. Webanwendungen CGI-Skripts in Perl. PHP-Seiten und komplexere Webanwendungen können durch einen Webbrowser aufgerufen werden. die in Ihrer speziellen Konfiguration Angriffen ausgesetzt sind. Um die Prozesse zu ermitteln. die ein Profil erhalten sollen Sie müssen nur die Programme schützen. die derzeit mit offenen Netzwerkports laufen und eventuell ein Profil zur Beschränkung brauchen. TIPP: Weitere Informationen Weitere Informationen über die Wahl der richtigen Anwendungen für ein Profil finden Sie im Kapitel Wählen von Programmen zur Immunisierung (Novell AppArmor 2. Die Prozesse mit der Angabe confined by sind bereits durch AppArmor geschützt. lesen Eingaben aus einer Vielzahl von Quellen. Verwenden Sie also nur Profile für die Anwendungen. die der cron-Daemon regelmäßig ausführt. Sicherheit in Linux 135 . die auf diese Netzwerkports reagieren. Beispiel 4. Cron-Jobs Programme. führen Sie den Befehl unconfined als root aus.

die in /etc/apparmor/ README. die in der AppArmor-Suite zur Verfügung stehen. damit AppArmor ein sehr genaues Bild der Aktivitäten ermittelt. für die ein Profil erstellt werden soll. h. es protokolliert jede Aktivität des ausgeführten Programms. 136) generiert wurden. d. 135) beschrieben) identifiziert eine Liste von Anwendungen. indem Sie genprof programmname ausführen. Oder: Führen Sie den YaST → Novell AppArmor → -Assistenten zum Hinzufügen von Profilen aus und geben Sie den vollständigen Pfad der Anwendung an. Beide Methoden arbeiten grundsätzlich auf dieselbe Weise. Ein grundlegendes Profil wird umrissen und AppArmor wird in den Lernmodus gebracht. bei der anderen werden die Befehlszeilenwerkzeuge genutzt. die eventuell ein Profil benötigen. Zusätzlich können Sie mit AppArmor Ihre eigenen Profile für eine Gruppe von Anwendungen festlegen.profiles definiert sind. 2 Führen Sie die vollständige Palette der Anwendungsaktionen aus. Geben Sie dazu S in genprof ein Oder: 136 Referenz . Profile zu verwalten. um in einem sicheren Modus abzulaufen. Es gibt zwei verschiedene Möglichkeiten. Die Ausführung von unconfined (wie in „Wählen der Anwendungen. die ein Profil erhalten sollen“ (S. um ein Profil zu erstellen: 1 Melden Sie sich als root an und lassen Sie AppArmor das Profil der Anwendung grob umreißen.Erstellen und Ändern von Profilen Novell AppArmor unter SUSE Linux wird mit einem vorkonfigurierten Satz an Profilen für die wichtigsten Anwendungen geliefert. schränkt es aber noch nicht ein. Die eine besteht in der Verwendung des grafischen Frontend der YaST Novell AppArmor-Module. Führen Sie für jede Anwendung die folgenden Schritte aus. 3 Lassen Sie AppArmor die Protokolldateien analysieren. die in Schritt 2 (S..

Wenn Sie jedoch in Ihrer Anwendung ein gewisses Fehlverhalten erkennen. der dem folgenden Beispiel gleicht. Erstellen von Novell AppArmor-Profilen. die während der Ausführung der Anwendung aufgezeichnet wurden. Novell AppArmor 2. Normalerweise läuft das eingeschränkte Programm reibungslos und Sie bemerken überhaupt keine AppArmor-Aktivitäten. Wenn genprof für eine Anwendung gestartet wurde. Das Profil wird angewendet und AppArmor beschränkt die Anwendung entsprechend dem soeben erstellten Profil. Bestimmen Sie die Zugriffsberechtigungen oder Einschränkungen. dass AppArmor Ihre Anwendung zu stark einschränkt: AppArmor: REJECTING w access to /var/run/nscd/socket (traceroute(2050) profile /usr/sbin/traceroute active /usr/sbin/traceroute) Um das Profil anzupassen. Testen Sie Ihre Profileinstellungen. prüfen Sie anhand der Systemprotokolle. wenn YaST Sie dazu auffordert. Erstellen von Novell AppArmor-Profilen. deutet darauf hin. bis das Profil fertig gestellt ist. Sicherheit in Linux 137 .Klicken Sie auf Scan system log for AppArmor events (Systemprotokoll auf AppArmor-Ereignisse prüfen) im Assistenten zum Hinzufügen von Profilen und folgen Sie den Anweisungen des Assistenten. für jedes protokollierte Ereignis die Zugriffsberechtigungen festzulegen. und fordert Sie auf.0-Administrationshandbuch) und im Abschnitt Erzwingen-Modus (Kapitel 3. Jeder Eintrag. führen Sie erneut den Assistenten zum Hinzufügen von Profilen aus wie oben beschrieben und lassen Sie ihn die Protokolleinträge für diese spezielle Anwendung analysieren.0-Administrationshandbuch). wird Ihr Profil in den ErzwingenModus gesetzt. die über ein vorhandenes Profil im Meldungsmodus verfügte. AppArmor prüft die Protokolle. Legen Sie die Zugriffsberechtigungen für jede Datei fest oder verwenden Sie Platzhalter. Weitere Informationen über das Ändern des Modus für ein Profil finden Sie im Abschnitt Meldungs. indem Sie jede benötigte Aufgabe mit der soeben eingeschränkten Anwendung ausführen. Novell AppArmor 2.oder Lernmodus (Kapitel 3. bleibt dieses Profil beim Verlassen dieses Lernzyklus im Lernmodus. Suchen Sie die entsprechenden Protokolle in /var/log/messages oder führen Sie dmesg aus. ob AppArmor Ihre Anwendung zu stark einschränkt. 4 Sobald alle Berechtigungen festgelegt sind.

an welche die Berichte gesendet werden. 138 Referenz . aktivieren Sie Ereignisse mit unbekanntem Schweregrad aufnehmen.TIPP: Weitere Informationen Weitere Informationen über die Erstellung und Änderung von Profilen finden Sie im Kapitel Erstellen von Novell AppArmor-Profilen (Novell AppArmor 2. Wählen Sie anschließend Novell AppArmor → AppArmor-Kontrollleiste. dass ein Mailserver auf Ihrem System ausgeführt wird. Zusammenfassung und Verbose (Ausführlich)) eine Berichthäufigkeit ein. 3 Wählen Sie im Bereich Sicherheitsereignisbenachrichtigung aktivieren die Option Konfigurieren. geben Sie die E-Mail-Adresse ein. ANMERKUNG Wenn Sie nicht mit der Ereigniskategorisierung von AppArmor vertraut sind. 4 Stellen Sie für jeden Eintragstyp (Terse (Knapp). und legen Sie den Schweregrad der aufzuzeichnenden Ereignisse fest. wenn im System eine Novell AppArmor-Aktivität unter der gewählten Sicherheitsebene auftritt. die einen angegebenen E-Mail-Empfänger benachrichtigt. damit Sie Sicherheitsereignisse überprüfen können. Ereignisbenachrichtigung ist eine Novell AppArmorFunktion. Konfigurieren von Novell AppArmor-Ereignisbenachrichtigung und -Berichten Richten Sie Ereignisbenachrichtigung in Novell AppArmor ein. Wenn Sie unbekannte Ereignisse in die Ereignisberichte aufnehmen möchten.0 Administrationshandbuch) . der die Ereignismitteilungen liefert. lassen Sie sich über alle Ereignisse in allen Sicherheitsstufen benachrichtigen. Diese Funktion steht derzeit über die YaST-Schnittstelle zur Verfügung. Zum Einrichten der Ereignisbenachrichtigung in YaST gehen Sie wie folgt vor: 1 Stellen Sie sicher. 2 Melden Sie sich als root an und starten Sie YaST.

Verwalten von Anwendungen mit Profil. 5 Blättern Sie durch die archivierten Berichte eines bestimmten Typs. Exportformat und Speicherort der Berichte.0-Administrationshandbuch). Weitere Informationen über die Berichtkonfiguration finden Sie im Abschnitt „Berichte“ (Kapitel 4. Sicherheit in Linux 139 . Gehen Sie zur Konfiguration der AppArmor-Berichte wie folgt vor: 1 Melden Sie sich als root an und starten Sie YaST. Sie können die Größe des Berichts reduzieren. 3 Bearbeiten Sie die Häufigkeit der Berichtgenerierung. Novell AppArmor 2. TIPP: Weitere Informationen Weitere Informationen über das Konfigurieren der Ereignisbenachrichtigung in Novell AppArmor finden Sie im Abschnitt „Einrichten der Ereignisbenachrichtigung“ (Kapitel 4. ohne mühselig alle Meldungen durchsuchen zu müssen. Oder: Löschen Sie nicht mehr benötigte Berichte oder fügen Sie neue Berichte hinzu. die nur für das logprof-Werkzeug nützlich sind. Konfigurieren Sie Novell AppArmor-Berichte. 4 Um einen Bericht des ausgewählten Typs zu generieren. den Sie prüfen oder konfigurieren möchten. die in Protokolldateien aufgezeichnet wurden. indem Sie Archiv anzeigen auswählen und den gewünschten Berichttyp angeben. klicken Sie auf Jetzt ausführen. E-Mail-Adresse. Wählen Sie Novell AppArmor → AppArmor-Berichte. 2 Wählen Sie den Berichttyp. Mithilfe von Berichten können Sie wichtige Novell AppArmor-Sicherheitsereignisse nachlesen.0-Administrationshandbuch). Novell AppArmor 2. Anwendungsprüfbericht und Sicherheitsereignisbericht (SIR). aus Zusammenfassungsbericht der Ausführungssicherheit. indem Sie Bearbeiten wählen und die erforderlichen Daten angeben.5 Schließen Sie dieses Dialogfeld mit OK → Beenden. Verwalten von Anwendungen mit Profil. indem Sie nach Datumsbereich oder Programmname filtern. um Ihre Einstellungen anzuwenden.

Ihren Profilsatz entsprechend anzupassen. Darüber hinaus ist das Betriebssystem netzwerktransparent. 3 Passen Sie Zugriffs. Novell AppArmor 2. mit denen sie arbeiten. AppArmor prüft Ihr Systemprotokoll auf Verletzungen der Richtlinien oder andere AppArmor-Ereignisse und ermöglicht Ihnen. TIPP: Weitere Informationen Weitere Informationen über das Aktualisieren Ihrer Profile aus den Systemprotokollen finden Sie im Abschnitt „Aktualisieren von Profilen aus Syslog-Einträgen“ (Kapitel 3. Dies bedeutet. dass mehrere Benutzer (Multiuser) mehrere Aufgaben zur gleichen Zeit auf demselben Computer (Multitasking) ausführen können. wenn Sie dazu aufgefordert werden. Erstellen von Novell AppArmor-Profilen. Gehen Sie wie folgt vor. nachdem Sie alle Fragen beantwortet haben. das außerhalb einer Profildefinition liegt. um Ihren Profilsatz zu aktualisieren: 1 Melden Sie sich als root an und starten Sie YaST.oder Unix-Systems ist. 4 Beenden Sie YaST. ob sich die Daten oder Anwendungen. Ihre Änderungen werden auf die jeweiligen Profile angewendet. 4.Aktualisieren Ihrer Profile Software.oder Ausführungsberechtigungen für jede protokollierte Ressource oder jedes protokollierte ausführbare Programm an. kann auch über den Assistenten zum Aktualisieren von Profilen behandelt werden. 140 Referenz . dass Benutzer oftmals gar nicht wissen.und Systemkonfigurationen ändern sich im Lauf der Zeit.0Administrationshandbuch). 2 Starten Sie den Novell AppArmor → -Assistenten zum Aktualisieren von Profilen. Jedes Anwendungsverhalten. Daher kann Ihre Profileinstellung für AppArmor gelegentliche Anpassungen erfordern. lokal auf dem Rechner befinden oder über das Netzwerk bereitgestellt werden.5 Sicherheit und Vertraulichkeit Eines der grundlegendsten Leistungsmerkmale eines Linux.

wenn nur der Verdacht besteht. dass Sie die Person sind. Personen wichtige Informationen zu entlocken. sei betont.1 Lokale Sicherheit und Netzwerksicherheit Es gibt verschiedene Möglichkeiten. Zugang zu den Daten auf einem Computer hat • direkt über die Konsole eines Computers (physischer Zugriff) • über eine serielle Schnittstelle oder • über eine Netzwerkverbindung In allen Fällen sollten sich die Benutzer authentifizieren müssen. In einigen Fällen ist es möglich. Bei Verlust oder Defekt der Datenträger (im Allgemeinen Festplatten) mussten wichtige Daten genau wie heute verfügbar sein. wenn Sie sich an einen Bankangestellten wenden und nachweisen müssen. müssen ihre jeweiligen Daten auch voneinander getrennt gespeichert werden können. das belegt. dass er Ihre persönlichen Daten an andere Surfer preisgibt. eine PIN oder ein Passwort anzugeben. bevor sie Zugriff auf die entsprechenden Ressourcen oder Daten erhalten. weiterhin auf die Daten zuzugreifen. funktionierendes und getestetes Backup verfügbar ist. dass bei einem umfassenden Sicherheitskonzept immer dafür gesorgt werden muss. eine Unterschrift. Datensicherheit war auch schon relevant.Damit mehrere Benutzer auf einem System arbeiten können. Sicherheit und der Schutz privater Daten müssen gewährleistet sein.5. dass ein regelmäßig aktualisiertes. dass Sie der rechtmäßige Eigentümer eines bestimmten Kontos sind. Ein Webserver mag diesbezüglich weniger restriktiv sein. die Sie vorgeben zu sein. auf Daten zuzugreifen: • persönliche Kommunikation mit jemandem. die bzw. dass jemand sich unbefugterweise an den Daten zu schaffen gemacht hat. Dies gilt beispielsweise. Auch wenn sich dieses Kapitel in der Hauptsache mit der Vertraulichkeit von Daten beschäftigt. Ohne dieses Backup der Daten wird es nicht nur im Fall eines Hardwaredefekts schwierig sein. als Computer noch nicht miteinander vernetzt waren. Sie werden aufgefordert. aber Sie möchten sicherlich nicht. der über die gewünschten Informationen verfügt bzw. Sicherheit in Linux 141 . sondern insbesondere auch dann. eine Signatur. Bei dem ersten Fall in der obigen Liste ist die zwischenmenschliche Kommunikation erforderlich. 4.

Das wichtigste bei der lokalen Sicherheit ist. Dies gilt auch für Backups sowie Netzwerk. erst sehr viel später entdeckt. versuchen sie häufig. kann die Kommunikation einfach aufgezeichnet werden. da hier einige bekannte Tastenkombinationen unerwünschtes Verhalten zur Folge haben könnten. Empfangsmitarbeiter. Lokale Sicherheit Die lokale Sicherheit beginnt bei der Umgebung. die an serielle Anschlüsse angeschlossen sind. Oft werden noch serielle Terminals verwendet.und Netzkabel. Stellen Sie Ihren Computer so auf. die einzelnen Benutzer voneinander zu trennen. Bevor Angreifer in Computersysteme einbrechen. Um zwischen den Geräten einfache Zeichen hin und her zu übertragen. Daher sollte der Computer so geschützt sein. wo Daten in Pakete verschnürt werden müssen. indem Sie Passwörter für das BIOS und den Bootloader festlegen. dass niemand dessen Komponenten entfernen. darauf zu achten. die auf Social Engineering basieren. könnte auch auf herkömmliche Weise versuchen. Das lokale Lesen einer Datei auf einem lokalen Host unterliegt anderen Zugriffsbeschränkungen als das Öffnen einer Netzwerkverbindung zu einem Dienst auf einem anderen Host. in der der Computer aufgestellt ist. Ein Person. Zudem sollte der Bootvorgang gesichert werden. Dienstleister des Unternehmens oder sogar Familienmitglieder anzusprechen. In vielen Fällen werden solche Angriffe. Was mit einem Drucker möglich ist. zwischen lokaler Sicherheit und Netzwerksicherheit zu unterscheiden. Unter Hackern wird dies als Social Engineering bezeichnet. weitere Informationen Preis zu geben. auf die entsprechende Hardware direkt zuzugreifen. Daher ist es nötig. Anders als Netzwerkschnittstellen benötigen diese für die Kommunikation mit dem Host kein Netzwerkprotokoll. ersetzen und beschädigen kann. um verschickt zu werden. Die Trennlinie wird da gezogen. sodass kein Benutzer die Rechte oder die Identität eines anderen Benutzers annehmen kann. indem Sie Benutzer aufklären und bewusst mit Sprache und Informationen umgehen. Dies gilt für alle 142 Referenz .indem man beiläufig einige bekannte Details erwähnt und unter Verwendung geschickter Rhetorik ihr Vertrauen gewinnt. geht selbstverständlich mit entsprechendem Aufwand auch anders. Das Kabel selbst ist dabei der einfachste Angriffspunkt: Wenn ein alter Drucker daran angeschlossen ist. ohne sich dessen bewusst zu sein. dass das Maß an Sicherheit Ihrem Anspruch und Ihren Anforderungen genügt. Das Opfer kann so möglicherweise nach und nach dazu gebracht werden. die unbefugt auf Ihre Daten zugreifen möchte. wird ein einfaches Kabel oder ein Infrarotanschluss verwendet. Dagegen können Sie sich nur schützen. Schützen Sie sich dagegen.

Dies erreicht man durch so genannte Falltüralgorithmen. Anschließend werden die beiden verschlüsselten Zeichenketten miteinander verglichen. Bei acht Buchstaben pro Passwort gibt es ziemlich viele Kombinationen. Aus diesem Grund darf die Passwortdatei nicht für jeden Benutzer sichtbar sein (/etc/shadow ist für einen normalen Benutzer nicht lesbar). Stattdessen muss er alle möglichen Zeichenkombinationen für ein Passwort durchprobieren. etwa die Anfangsbuchstaben der Wörter eines Satzes. root kann unter anderem ohne Passworteingabe die Identität aller Benutzer annehmen und jede lokal gespeicherte Datei lesen. Besser sind Kombinationen von Buchstaben. die Wörterbücher zum Raten verwenden. Ein Angreifer. In einem solchen Fall wären alle Konten auf dem System gefährdet. der das verschlüsselte Passwort in seinen Besitz gebracht hat. welches verschlüsselt so aussieht wie das Original. B. „Der Name der Rose“ von Umberto Eco. Es hilft daher nicht viel. In den 1970er Jahren galt diese Methode als sicherer als andere. Dies macht natürlich nur dann Sinn. Das Ersetzen einiger Buchstaben in einem Wort durch ähnliche Zahlen ist nicht sicher. „ein “ Passwort wie „tantalize“ in „t@nt@1lz3“ umzuschreiben. wenn jemand auf die entsprechende Datei zugreifen könnte. kann nicht einfach den Algorithmus erneut anwenden und das Passwort sehen. die nur in eine Richtung funktionieren. Im Gegensatz dazu können Sicherheit in Linux 143 . z. Passwörter Auf einem Linux-System werden Passwörter nicht etwa im Klartext gespeichert. erneut verschlüsselt. wenn man aus dem verschlüsselten Passwort nicht die ursprüngliche Textzeichenkette errechnen kann. Dies kann von Knackprogrammen. Das gespeicherte Passwort wird stattdessen verschlüsselt und jedes Mal. die kein bekanntes Wort bilden und nur für den Benutzer eine persönliche Bedeutung haben. damit eingegebene Passwörter mit den gespeicherten verglichen werden können. wenn es eingegeben wird. Daraus gewinnen Sie ein sicheres Passwort: „DNdRvUE9“. da der verwendete Algorithmus recht langsam war und Zeit im Sekundenbereich für das Verschlüsseln eines Passworts brauchte. Noch wichtiger ist. der alle Rechte im System besitzt. besonders aber für den Benutzer root. dass Passwörter nicht leicht zu erraten sind. bis er dasjenige findet. für den Fall.Benutzer. Heutige PCs dagegen schaffen ohne weiteres mehrere hunderttausend bis Millionen Verschlüsselungen pro Sekunde. dass die Passwortdatei wegen eines Fehlers doch sichtbar wird. sehr leicht aufgelöst werden.

Die einzelnen Berechtigungen der weit über 200. seine E-Mails als root zu lesen und zu schreiben. um eine detaillierte Dateiliste zu erhalten. Dateiberechtigungen Es gilt das Prinzip. Der Bootvorgang Verhindern Sie. Durch Anwenden der obigen Regel minimieren Sie also den möglichen Schaden. Nicht nur. dass mit einer Diskette oder einer CD-ROM gebootet werden kann. von Programmen mit root-Berechtigung ausgeführt werden. ähnlich wie der Kuckuck seine Eier von fremden Vögeln ausbrüten lässt. Dies ist für die Sicherheit des Systems unerlässlich. können Sie in /boot/grub/menu . Der Administrator eines Systems sollte zusätzliche Software oder andere Dateien mit größtmöglicher Sorgfalt installieren und besonders gut auf die vergebenen Berechtigungen achten. Es ist beispielsweise definitiv nicht nötig. 144 Referenz . Um zu verhindern. der Sie oberflächlich gut kennt. Wenn das Mail-Programm. Solche Angriffe werden als Kuckuckseier bezeichnet. sondern auch weil er root-Berechtigungen bei Systemstart vergibt. Der Bootloader (S. der es ermöglicht. indem Sie die Laufwerke ausbauen oder indem Sie ein BIOS-Passwort setzen und im BIOS ausschließlich das Booten von Festplatte erlauben. einen Fehler hat. zusätzliche Optionen an den gestarteten Kernel weiterzugeben. der für einen Angriff ausgenutzt wird. Erfahrene und sicherheitsbewusste Administratoren verwenden die Option -l mit dem Befehl ls. die Sie zum Zeitpunkt des Angriffs hatten. anhand der sie eventuell falsch gesetzte Dateiberechtigungen gleich erkennen können. im Fall von Konfigurationsdateien.000 Dateien einer SUSE-Distribution sind sorgfältig vergeben. weil der Kernel selbst mitroot-Berechtigungen läuft. Linux-Systeme werden in der Regel mit einem Bootloader gestartet. dass Dateien überschrieben oder gelöscht werden können.Passwörter wie „Saufkumpan“ oder „Jasmin76“ schon von jemandem erraten werden. mit dem Sie arbeiten. dass andere Personen diese Parameter während des Bootvorgangs verwenden. Damit könnte ein Angreifer beträchtlichen Schaden anrichten. erfolgt dieser genau mit den Berechtigungen. weil das Programm (das Ei) von einem fremden Benutzer (Vogel) ausgeführt (ausgebrütet) wird. immer mit den niedrigst möglichen Privilegien für die jeweilige Aufgabe zu arbeiten. Diese geänderten Dateien könnten vom root oder. Ein falsch gesetztes Attribut bedeutet nicht nur. 211)).lst ein zusätzliches Passwort festlegen (siehe Kapitel 9.

SUSE Linux-Systeme verfügen über die Dateien permissions. insbesondere wenn das Programm mit besonderen Berechtigungen ausgeführt wird (siehe „Dateiberechtigungen“ (S. permissions. Dies ist ein schwerer Fehler. wie groß der Puffer tatsächlich ist. als im Puffer zur Verfügung steht. 144)). Dies ist in der Regel root). (Programme mit gesetztem Setuser-ID-Bit laufen nicht mit der Berechtigung des Benutzers. auch hierbei kann über die Benutzereingabe das Programm von seinem eigentlichen Weg abgebracht werden. anstatt nur Benutzerdaten zu verarbeiten. die sich alle im Verzeichnis /etc befinden. Diese Vorsicht gilt in der Hauptsache für den Programmierer der Anwendung. Er muss sicherstellen. die eigentlich zu klein sind. dass die vom Benutzer generierten Daten etwas mehr Platz erfordern. Pufferüberläufe und Format-String-Programmfehler Wann immer ein Programm Daten verarbeiten soll. die mit besonderen Berechtigungen ausgeführt werden. Diese Programmierfehler werden normalerweise bei Programmen ausgenutzt. Weitere Informationen zu diesem Thema finden Sie in den Kommentaren in /etc/permissions oder auf der Manualpage für den Befehl chmod (man chmod).local zur Verfügung.secure und permissions. Format-String-Programmfehler funktionieren etwas anders.easy.paranoid.und setgid-Programme. können Sie auch komfortabel mit YaST unter dem Menüpunkt Sicherheit treffen. In diesen Dateien werden besondere Berechtigungen wie etwa allgemein schreibbare Verzeichnisse oder. dass die Daten durch das Programm richtig interpretiert werden und die Daten zu keinem Zeitpunkt in Speicherbereiche geschrieben werden. wenn beim Beschreiben eines Pufferspeicherbereichs nicht darauf geachtet wird. also setuid. die von einem Benutzer geändert werden können oder könnten. Durch dieses Überschreiben des Puffers über seine Grenzen hinaus ist es unter Umständen möglich. Außerdem sollten die Daten in konsistenter Art und Weise vom Programm über die dafür vorgegebenen Schnittstellen weitergereicht werden. sondern mit der Berechtigung des Eigentümers der Datei. ist besondere Vorsicht geboten. Es kann vorkommen. Für den Administrator steht die Datei /etc/permissions. Die Auswahl der Dateien. SetuserID-Bits festgelegt. in der er seine eigenen Einstellungen hinzufügen kann. Ein Pufferüberlauf kann dann passieren. die vom Benutzer und nicht vom Programmierer generiert wurden. die für Konfigurationsprogramme von SUSE zur Vergabe der Rechte benutzt werden sollen. dass ein Programm Programmsequenzen ausführt. wie im Fall von Dateien. der sie gestartet hat. permissions . Sicherheit in Linux 145 .

Wenn Sie bei der Arbeit als root angemeldet sind. und er muss für den Programmcode des Virus beschreibbar sein. etwa der Master-Boot-Record. SUSE-RPMPakete sind kryptographisch signiert und tragen mit dieser digitalen Unterschrift das Markenzeichen der Sorgfalt. das Sie aus dem Internet bezogen haben und dessen genaue Herkunft Sie nicht kennen. Berücksichtigen Sie aber die Regel der geringstmöglichen Privilegien. erhöhen Sie also die Wahrscheinlichkeit. die ausschließlich in Netzwerken Probleme verursachen. Darüber hinaus sollten Sie nie leichtfertig ein Programm ausführen. wenn der Administrator oder auch der Benutzer ein mangelndes Sicherheitsbewusstsein hat. Da Pufferüberläufe und Format-String-Fehler bei der Verarbeitung von Benutzerdaten auftreten. ist es schwierig. um sich zu verbreiten. Deswegen sollten Pufferüberläufe und FormatString-Fehler sowohl für die lokalen Computer als auch für das Netzwerk als sicherheitsrelevant klassifiziert werden. h. 144)). den Schreibzugriff auf Dateien einzuschränken. In diesem Fall ist der Host ein Programm oder ein wichtiger Speicherbereich für das System. Viren benötigen zur Ausbreitung einen Wirt (Host). als Beweis. dass Ihr System von solch einem Virus infiziert wird. 146 Referenz . Auch hier gilt wieder das Prinzip der geringstmöglichen Privilegien (siehe „Dateiberechtigungen“ (S. Viren Entgegen anders lautenden Behauptungen gibt es tatsächlich Viren für Linux. was insbesondere für Systemdateien wichtig ist. sind sie nicht notwendigerweise nur ausnutzbar. Linux hat aufgrund seiner Mehrbenutzer-Funktionalität die Möglichkeit.Sie können sich und Ihr System also vor solchen Fehlern schützen. Sie benötigen keinen Host. Die bekannten Viren sind von ihren Autoren als Proof of Concept geschrieben worden. Viren sind klassische Symptome dafür. indem Sie die besonderen Ausführungsrechte aus den Programmen entfernen. Viele der bekannt gewordenen Fehler können auch über eine Netzwerkverbindung ausgenutzt werden. unter Linux ein Virus zu bekommen. wenn man bereits Zugriff auf ein lokales Konto hat. ohne den sie nicht überlebensfähig sind. Viren sind nicht mit Würmern zu verwechseln. dass auch ein hochsicheres System unsicher wird. mit der die Pakete entwickelt wurden. dass die Technik funktioniert. Allerdings ist bis jetzt noch keiner dieser Viren in freier Wildbahn beobachtet worden. d.

die er verwaltet (die Anzeige). Gemeint sind hier die chinesischen Glückskekse. Bei der Cookie-basierten Zugriffskontrolle wird eine Zeichenkette. Dies wird mit dem Programm „xhost“ gesteuert. Zugriff auf den X-Server. Bei X.Xauthority kann vom Benutzer mit dem Programm „xauth“ untersucht werden. vor unberechtigten Zugriffen schützen. Wenn Sie . der auf dem X-Server ein Fenster anzeigen möchte. zur Verfügung. Bei X Windows geschieht dies auf zwei verschiedene Arten: Hostbasierte und Cookie-basierte Zugriffskontrolle. Wenn ein X-Client mithilfe eines X-Servers über das Netzwerk angezeigt werden soll. dem Windowing-System von Unix. Beim Anmelden über eine Netzwerkverbindung muss zwischen den beiden Sicherheitsaspekten differenziert werden: bis zur erfolgten Authentifizierung geht es um Netzwerksicherheit. die ein Epigramm enthalten) wird bei der Anmeldung in der Datei . Sie können sich ohne Weiteres auf einem entfernten Computer anmelden und dort ein Programm starten. Erstere basiert auf der IP-Adresse des Computers. Konkret heißt das hier. der die IP-Adresse stiehlt.Xauthority im Home-Verzeichnis des Benutzers gespeichert und steht somit jedem X-Client. dessen grafische Oberfläche dann über das Netzwerk auf Ihrem Computer angezeigt wird. Eine Authentifizierung einzig und allein auf einer IP-Adresse aufzubauen gilt jedoch nicht gerade als sicher. um das gesamte System gegen Angriffe von außen zu schützen. Es könnte beispielsweise noch ein zweiter Benutzer auf dem Host mit dem Client-Programm arbeiten und dieser hätte dann genau wie jemand. nach der Anmeldung um lokale Sicherheit. gilt dies in besonderem Maße. Das typische Anmeldeverfahren mit Benutzernamen und Passwort für die Benutzerauthentifizierung gehört weiter zur lokalen Sicherheit. dass dem Client-Programm bestimmte Berechtigungen gewährt werden müssen. Sicherheit in Linux 147 .Netzwerksicherheit Die Netzwerksicherheit ist wichtig. Deswegen wird auf diese Authentifizierungsmethode auch nicht näher eingegangen. Die Datei . Dieses Cookie (das englische Wort „cookie“ bedeutet Keks. die nur der X-Server und der berechtigte Benutzer kennen. wie ein Ausweis verwendet. X Window-System und X-Authentifizierung Wie bereits erwähnt ist Netzwerktransparenz eine grundlegende Eigenschaft eines UnixSystems. Weitere Informationen finden Sie jedoch auf der Manualpage für xhost. dann muss der Server die Ressource. xhost trägt eine IP-Adresse eines legitimen Client in eine Mini-Datenbank auf dem X-Server ein. auf dem das Client-Programm laufen soll.Xauthority in Ihrem Home-Verzeichnis versehentlich umbenennen oder löschen.

„SSH: Sicherer Netzwerkbetrieb“ (S. dass die freie Verfügbarkeit von Exploit-Code generell die Sicherheit von Betriebssystemen erhöht hat. die Probleme in ihrer Software zu beseitigen. h. um root-Berechtigungen zu erhalten. könnte sich der Angreifer zumindest Zugang zu einem unprivilegierten lokalen Konto verschaffen. Weitere Informationen zur Sicherheit von X Window-Systemen finden Sie auf der Manualpage für den Befehl Xsecurity (man Xsecurity). Dabei wird serverseitig ein X-Server simuliert und bei der Shell auf dem entfernten Host die DISPLAY-Variable gesetzt. dass Betriebssystemhersteller dazu gezwungen waren. Über das Netzwerk ausbeutbare Pufferüberläufe und Format-String-Fehler sind wohl die häufigsten Varianten von entfernten Angriffen überhaupt. Auch jemand. ohne dass der Benutzer die Verschlüsselung wahrnimmt. Mit SSH (Secure Shell) können Netzverbindungen vollständig verschlüsselt und offen an den X-Server weitergeleitet werden. 121). Über Sicherheits-MailingListen werden so genannte Exploits bekannt gemacht. dann sollten Sie X-Forwarding nicht verwenden. mit dem er dann weitere Schwachstellen ausnutzen kann. sofern diese vorhanden sind. Da bei freier Software der Quellcode für jedermann erhältlich ist (SUSE Linux liefert alle 148 Referenz . was sicherlich daran liegt. Weitere Informationen zu SSH finden Sie in Abschnitt 4. der nicht die genauen Details des Codes kennt. die die frisch gefundenen Sicherheitslücken ausnutzen. WARNUNG Wenn Sie den Host. sollten Pufferüberläufe und Format-String-Fehler sowohl für die lokalen Computer als auch das Netzwerk als sicherheitsrelevant klassifiziert werden. Mit aktiviertem X-Forwarding könnten sich Angreifer über Ihre SSH-Verbindung mit Ihrem X-Server authentifiziert verbinden und beispielsweise Ihre Tastatureingaben abhören. Dies wird auch als X-Forwarding bezeichnet.können Sie keine neuen Fenster oder X-Clients mehr öffnen. Pufferüberläufe und Format-String-Programmfehler Wie in „Pufferüberläufe und Format-String-Programmfehler“ (S. Selbst wenn dies nicht der Fall ist. Programme. auf dem Sie sich anmelden. kann damit die Sicherheitslücken ausnutzen. d.2. nicht als sicher einstufen. 145) beschrieben. Wie auch bei den lokalen Varianten dieser Programmierfehler nutzen Angreifer Pufferüberläufe bei Netzwerkprogrammen meistens aus. Im Laufe der Jahre hat sich herausgestellt.

TCPConnection-Hijacking. kann die Kommunikation Angriffen wie Man-in-the-middle-Angriffen (Sniffing. versendet werden. wird als Man-in-the-middle-Angriff bezeichnet. Spoofing ist ein Angriff. dafür zu sorgen. Solche Angriffe haben in der Regel eines gemeinsam: Das Opfer merkt nichts davon. eine Netzwerkverbindung zum falschen Host geöffnet. die an ihm vorbeigeführt werden. kann jemand. Sicherheit in Linux 149 . die an ihm vorüber geführt werden. weil dieser sich als das Ziel ausgibt. B. Die einfachste Form eines Man-in-the-middle-Angriffs wird als Sniffer bezeichnet. Viele Varianten sind denkbar. oder durch Ausnutzen von entfernten Pufferüberläufen. Spoofing) und DNS-Poisoning ausgesetzt sein. Das Opfer hat also. bei dem Pakete mit falschen Absenderdaten. Man in the Middle: Sniffing. wenn der „Man-in-the-middle“-Angreifer versucht. eine bereits eingerichtete Verbindung zu übernehmen (Connection-Hijacking). was unter Unix/Linux übrigens nur der Superuser (root) kann. der eine Sicherheitslücke mitsamt ExploitCode findet. Wenn er dann die Rolle des Zielhosts der Verbindung übernimmt. Die meisten aktiven Angriffsvarianten verlangen das Verschicken von gefälschten Paketen. bei dem der Angreifer eine Position zwischen zwei kommunizierenden Hosts einnimmt. Komplexer wird es.verfügbaren Quellen mit). dass die Verbindung wegen eines Fehlers beendet wird. ohne es zu wissen.: Der Angreifer nimmt eine Verbindungsanforderung entgegen und stellt selbst eine Verbindung zum Ziel her. Hijacking. dass der Dienst nicht mehr verfügbar ist. in der Regel der IP-Adresse. DoS – Denial of Service Ziel von DoS-Angriffen ist das Blockieren eines Serverprogramms oder sogar des ganzen Systems. weil es die Meldung erhält. eine Weile analysiert haben. Wenn ein bestimmter Dienst jedoch fehlt. Spoofing Im Allgemeinen gilt: Ein entfernter Angriff. z. merkt das das Opfer. Bei diesen belauscht der Angreifer einfach nur die Netzverbindungen. Der Zweck eines DoS-Angriffs ist häufig. Dafür muss der Angreifer die Pakete. indem er mit unsinnigen Paketen beschäftigt wird. Der Angreifer profitiert dabei insbesondere bei Protokollen. die nicht kryptographisch gegen Hijacking gesichert sind und bei denen zu Beginn der Verbindung nur eine einfache Authentifizierung stattfindet. damit er die richtigen TCP-Sequenznummern der TCP-Verbindung vorhersagen kann. auch gleichzeitig noch einen Patch für das Problem anbieten. Dies kann auf verschiedenste Arten passieren: durch Überlasten des Servers.

Stattdessen sind sie darauf spezialisiert. Viele Server haben. das Informationen vom Server anfordert. weil seitens des Hosts keine Störungen des Angriffs mehr erwartet werden müssen. Natürlich setzt dies voraus. Der Angreifer benötigt allerdings gute Kenntnisse der Vertrauensstruktur zwischen diesen Hosts. basierend auf IP-Adressen oder Hostnamen. Ein zeitlich genau abgestimmter DoS-Angriff gegen den Namenserver ist aus Sicht des Angreifers ebenfalls unerlässlich. sodass dieser bestimmte Daten an ein Opfer weitergibt. das dann bereits Update-Versionen des betroffenen Programms zur Verfügung stehen. Der Angreifer analysiert in der Regel einige vom Server gesendete Pakete. um sich selbst als einer der verbürgten Hosts ausgeben zu können. Lion oder Adore nutzen bekannte Sicherheitslücken von Serverprogrammen wie bind8 oder lprNG.5.Viele der hier erwähnten Angriffsmöglichkeiten kommen in Kombination mit einem DoS vor. ist es gut möglich. mit neuen Entwicklungen Schritt zu halten und auf dem Laufenden zu sein. die die Identität des Zielhosts der Verbindung verifizieren können. 4. ein verbürgtes Verhältnis zu anderen Hosts. einen Rechner abrupt vom Netzwerk zu trennen (wenn auch nur für kurze Zeit). Man kann sich relativ einfach gegen Würmer schützen. sich so schnell wie möglich in Netzwerken zu verbreiten. um überleben zu können. Anders als Viren müssen Würmer kein Hostprogramm infizieren. um die erforderlichen Informationen zu erhalten. Sie können sich selbst schützen. Würmer Würmer werden häufig mit Viren gleichgesetzt.2 Tipps und Tricks: Allgemeine Hinweise zur Sicherheit Für einen kompetenten Umgang mit dem Bereich Sicherheit ist es nötig. Bekannte Würmer wie Ramen. dann wirkt sich das förderlich auf einen aktiven Angriff aus. dass der Administrator die Sicherheits-Updates auch auf den entsprechenden Systemen installiert. mit gefälschten (gespooften) DNS-Antwortpaketen den Cache eines DNS-Servers zu „vergiften“ (poisoning). was die neuesten 150 Referenz . Gibt es eine Möglichkeit. DNS-Poisoning Beim DNS-Poisoning versucht der Angreifer. Weil zwischen dem Zeitpunkt des Bekanntwerdens der Sicherheitslücken bis zum Auftauchen des Wurms auf dem Server in der Regel einige Zeit vergeht. indem Sie verschlüsselte Verbindungen verwenden. Es gibt aber einen markanten Unterschied.

novell.a. Die SUSE-Sicherheitsmitteilungen (Security Announcements) werden über eine Mailingliste verbreitet. ssh usw. die nur lokale Sicherheitsrelevanz hat. Die Liste suse-security-announce@suse. in die Sie sich unter der Adresse http:// www. ftp. • Verwenden Sie nach Möglichkeit immer verschlüsselte Verbindungen. Verwenden Sie standardmäßig ssh (secure shell) anstelle von telnet. Im Folgenden sind einige Grundregeln für die Sicherheit aufgeführt: • Vermeiden Sie es. Die Lektüre dieser Liste mit durchschnittlich 15-20 Beiträgen am Tag wird empfohlen. Wenn Sie das setuid-Bit aus einem Programm entfernen. die in Sicherheitsmitteilungen empfohlen werden. und schützt Sie vor eigenen Fehlern. • Halten Sie Ihre wichtigsten Pakete für den Netzwerkbereich immer auf dem neuesten Stand und abonnieren Sie die entsprechenden Mailinglisten.com.html eintragen können.de. Sie können sie auf derselben Webseite abonnieren. Weitere Informationen hierzu finden Sie unter http://www . Das verringert das Risiko. Diese Mailingliste suse-security@suse. die geringstnötigen Privilegien für eine Aufgabe zu verwenden. von Mitgliedern des SUSE-Sicherheitsteams erstellt wird. entsprechend dem Prinzip. bugtraq@securityfocus. Auf der anderen Seite stellt das Programm dann aber in der Regel auch kein Sicherheitspro- Sicherheit in Linux 151 . kann dieses seine Aufgabe möglicherweise nicht mehr ordnungsgemäß erledigen.com ist eine der bekanntesten Sicherheits-Mailinglisten der Welt.de ist ein informatives Diskussionsforum für den Bereich Sicherheit. die u. Ein sehr guter Schutz gegen Fehler aller Art ist das schnellstmögliche Installieren von Update-Paketen. um Arbeiten von einem entfernten Standort aus durchzuführen. • Benutzen Sie keine Authentifizierungsmethoden. Dasselbe gilt für Software. ist die erste Informationsquelle für UpdatePakete.) zu erhalten. um neue Versionen der jeweiligen Software (bind.securityfocus. sendmail.Sicherheitsprobleme angeht. indem Sie die Datei /etc/permissions an die Sicherheitsanforderungen des Systems anpassen.com/linux/security/securitysupport. als root zu arbeiten. die allein auf der IP-Adresse basieren. sich ein Kuckucksei oder einen Virus einzufangen. rsh und rlogin. • Optimieren Sie die Zugriffsrechte für sicherheitskritische Dateien im System.

blem mehr dar. • Seien Sie vorsichtig beim Installieren von Drittanbietersoftware. Sie finden den Schlüssel auf der ersten CD der Distribution oder auf den meisten Schlüsselservern der Welt. sondern auf jeden Fall auch UDP-Ports (Optionen -sS und -sU). denn dies könnte als aggressiver Akt aufgefasst werden. Wenn Sie ein Binärpaket installieren.rpm zeigt. ob die Prüfsumme und die Signatur eines (nicht installierten) Pakets stimmen. woher das Paket kommt. SUSE-RPM-Pakete sind mit GPG signiert. Es überprüft nicht nur jeden einzelnen Port des Hosts. Offene Ports (mit Socket-Status LISTEN) finden Sie mit dem Programm netstat. welcher Prozess einen Port unter welchem Namen belegt. Der von SUSE zum Signieren verwendete Schlüssel lautet wie folgt: ID:9C800ACA 2000-10-19 SUSE Package Signing Key <build@suse. Das Programm „nmap“ ist dafür hervorragend geeignet. Das macht Ihr System sicherer. 152 Referenz . sondern kann anhand der Antwort des Hosts Schlüsse über einen hinter dem Port wartenden Dienst ziehen.de> Key fingerprint = 79C1 79B2 E1C8 20C1 890F 9994 A84E DAE8 9C80 0ACA Der Befehl rpm --checksig package. um unbefugte Zugriffe auf diese zu verhindern. Verwenden Sie dazu jedoch ein externes Speichermedium. Vergleichen Sie die Ergebnisse von netstat mit einem vollständigen Portscan des Hosts von außen. • Zur zuverlässigen Integritätsprüfung der Dateien in Ihrem System sollten Sie das Programm AIDE (Advanced Intrusion Detection Environment) verwenden. Es gab schon Fälle. Mit einer ähnlichen Vorgehensweise können Sie auch allgemein schreibbare Dateien (Berechtigungsstufe „world“) und Verzeichnisse bearbeiten. Als Optionen bieten sich netstat -ap oder netstat -anp an. dass Sie nicht nur TCP-Ports scannen sollten. das nicht über eine Netzwerkverbindung mit Ihrem Computer verbunden ist. die Sie auf Ihrem Server nicht zwingend brauchen. Mit der Option -p können Sie sehen. das unter SUSE Linux verfügbar ist. Denken Sie daran. Scannen Sie niemals einen Rechner ohne das direkte Einverständnis des Administrators. Verschlüsseln Sie die von AIDE erstellte Datenbank. • Deaktivieren Sie jegliche Netzwerkdienste. sollten Sie sicher sein. Bewahren Sie außerdem ein Backup dieser Datenbank an einem sicheren Ort auf. Zum Glück wurde dies schnell bemerkt. wo ein Angreifer tar-Archive einer Sicherheitssoftware mit einem trojanischen Pferd versehen hat.

man hosts_access). SUSE verwendet folgenden PGP-Schlüssel: ID:3D25D3D9 1999-03-06 SUSE Security Team <security@suse. um den Zugriff auf die einzelnen Dienste Ihres Computers einzuschränken.3 Zentrale Adresse für die Meldung von neuen Sicherheitsproblemen Wenn Sie ein Sicherheitsproblem finden (bitte überprüfen Sie zunächst die zur Verfügung stehenden Update-Pakete). • Verwenden Sie tcp_wrapper.de> Key fingerprint = 73 5F 2E 99 DF DB 94 C4 8F 5A A3 AE AF 22 F2 D5 Dieser Schlüssel kann auch unter folgender URL heruntergeladen werden: http:// www.und Systemdateien.com/linux/security/securitysupport. die Sie nie sehen. • Überprüfen Sie die Protokolldateien. Ohne eine zuverlässige Aussage über die Qualität des Backups ist das Backup unter Umständen wertlos. Ihnen so schnell wie möglich zu antworten.de.novell. Eine pgp-Verschlüsselung Ihrer E-Mail ist erwünscht. was ungewöhnlich ist und was nicht. • Richten Sie die Sicherheitsmaßnahmen redundant ein: Eine Meldung. 4. zusammen mit den Versionsnummern der verwendeten Pakete. SUSE bemüht sich. und explizit anzugeben. welchen IP-Adressen der Zugriff gestattet ist. schreiben Sie an die E-Mail-Adresse security@ suse. • Als zusätzlichen Schutz zu tcpd (tcp_wrapper) könnten Sie SuSEfirewall verwenden. Weitere Informationen zu tcp_wrapper finden Sie auf den Manualpages zu tcpd und hosts_access (man 8 tcpd.• Überprüfen Sie regelmäßig die Backups der Benutzer. Bitte fügen Sie eine genaue Beschreibung des Problems bei. Diese Aufgabe ist alles andere als trivial. Schließlich wissen nur Sie.html. welches die Protokolldateien nach ungewöhnlichen Einträgen absucht.5. ist besser als eine. Nach Möglichkeit sollten Sie sich ein kleines Skript schreiben. die zweimal gelesen wird. Sicherheit in Linux 153 .

.

und Gruppenidentität für eine bestimmte Aktion ermöglichen. Arbeiten mit der Shell. Die entsprechenden Standardentwürfe POSIX 1003. Zugriffskontrolllisten unter Linux 155 . Die Standards können unter http://wt. ACLs unter vielen UNIX-artigen Betriebssystemen basieren allerdings auf diesen Entwürfen und die Implementierung der in diesem Kapitel beschriebenen Dateisystem-ACLs folgt diesen beiden Standards ebenfalls. Deshalb weist Linux zusätzliche Einstellungen auf. 5. dass es sich um einen echten Standard aus der POSIX-Familie (Portable Operating System Interface) handelt. die das vorübergehende Ändern der aktuellen Benutzer.org/publications/posix.1e und POSIX 1003.1 setuid-Bit In bestimmten Situationen sind die Zugriffsberechtigungen möglicherweise zu streng.2c wurden aus mehreren Gründen zurückgezogen.1e/ eingesehen werden. 5 5. Der Begriff POSIX-ACL suggeriert.1. Mit ACLs können Berechtigungen flexibler als mit dem traditionellen Berechtigungskonzept definiert werden.1 Traditionelle Dateiberechtigungen Die Grundlagen der traditionellen Linux-Dateiberechtigungen werden in Abschnitt „Benutzer und Zugriffsberechtigungen“ (Kapitel 3.und das sticky-Bit. Erweiterte Funktionen sind das setuid-.Zugriffskontrolllisten unter Linux POSIX-ACLs (Zugriffskontrolllisten) können als Erweiterung des traditionellen Berechtigungskonzepts für Dateisystemobjekte verwendet werden. ↑Start) erläutert.xpilot. das setgid.

ob es einem ausführbaren Programm oder einem Verzeichnis zugehörig ist. Durch das setuid-Bit führen alle Benutzer. wird unter der Gruppen-ID ausgeführt. Betrachten wir einmal den passwd-Befehl: -rwsr-xr-x 1 root shadow 80036 2004-10-02 11:08 /usr/bin/passwd Sie sehen das s. für das dieses Bit festgelegt wurde. dass das System zum Ausführen entsprechend markierter Programme unter einer bestimmten Benutzer-ID veranlasst. 5. Benutzer. da es zu gefährlich wäre. setuid (set user ID (Benutzer-ID festlegen) ist ein spezielles Dateiattribut. Wenn es einem Programm zugehörig 156 Referenz . dass das setuid-Bit für die Benutzerberechtigung festgelegt ist. beispielsweise die Home-Verzeichnisse von Benutzern sowie Benutzer. werden der entsprechenden Gruppe „zugeordnet“. Folglich werden in einem Verzeichnis mit dem setgid-Bit alle neu erstellten Dateien und Unterverzeichnisse der Gruppe zugewiesen. Der Eigentümer des Verzeichnisses sowie Mitglieder der Gruppe archive dürfen auf dieses Verzeichnis zugreifen. dass das setgid-Bit für die Gruppenberechtigung festgelegt ist. unter der es gespeichert wurde. passwd zu ändern. allen Benutzern den direkten Zugriff auf diese Datei zu gewähren. archive ist die Gruppen-ID für alle geschriebenen Dateien.3 sticky-Bit Außerdem gibt es das sticky-Bit. den entsprechenden Vorgang als root aus. unabhängig davon. Betrachten wir einmal folgendes Beispielverzeichnis: drwxrws--. Es gibt jedoch eine entsprechende Eigenschaft für Gruppen: das setgid-Bit.1. Ein mit der Gruppen-ID archive ausgeführtes Sicherungsprogramm kann auch ohne root-Berechtigungen auf dieses Verzeichnis zugreifen. von welchem Benutzer es gestartet wird. das angibt. Ein Program. Folglich ist es einem normalen Benutzer im Regelfall nicht möglich.und GruppenIDs. Diese Datei enthält wichtige Informationen. 5.1. Eine mögliche Lösung dieses Problems stellt der setuid-Mechanismus dar. das angibt. Es macht einen Unterschied. die den passwd-Befehl aufrufen. der das Verzeichnis zugehörig ist.2 setgid-Bit Das setuid-Bit hat für Benutzer Gültigkeit.2 tux archive 48 Nov 19 17:12 backup Sie sehen das s.Für das passwd-Programm sind beispielsweise im Regelfall root-Berechtigungen für den Zugriff auf /etc/passwd erforderlich. die nicht Mitglied dieser Gruppe sind.

ohne dass auf Anwendungsebene komplexe Berechtigungsmodelle implementiert werden müssen. Ext2. Für komplexere Szenarien oder erweiterte Anwendungen mussten Systemadministratoren früher eine Reihe von Tricks anwenden. um die Einschränkungen des traditionellen Berechtigungskonzepts zu umgehen. bei denen es sich nicht um den ursprünglichen Eigentümer oder die ursprüngliche Eigentümergruppe handelt. Zugriffskontrolllisten unter Linux 157 . einzelnen Benutzern oder Gruppen.2 Vorteile von ACLs Traditionell sind für jedes Dateiobjekt unter Linux drei Berechtigungsgruppen definiert. Ext3. Dieses schlanke Konzept ist für die meisten in der Praxis auftretenden Fälle völlig ausreichend. ist es sogar möglich. Wenn dieses Bit einem Verzeichnis zugewiesen ist. Dieses Attribut kommt selten zum Einsatz. Benutzern. auf diese Weise muss sie nicht bei jeder Verwendung von der Festplatte abgerufen werden. einem Teil der Samba-Suite. Schreiben (w) und Ausführen (x) für den Eigentümer der Datei. Einige der angeschlossenen Arbeitsstationen können auch nach der Migration weiter unter Windows betrieben werden. Zusätzlich können noch die Bits für set user id.und Druckdienste über Samba zur Verfügung. Mithilfe von ACLs können komplexe Szenarien umgesetzt werden. hindert es einen Benutzer daran. Da Samba ACLs unterstützt. Die Vorzüge von ACLs zeigen sich. Diese Gruppen enthalten die Berechtigungen zum Lesen (r). Berechtigungen zuzuweisen. die Gruppe und andere Benutzer.ist. Zu den typischen Beispielen zählen die Verzeichnisse /tmp und /var/tmp: drwxrwxrwt 2 root root 1160 2002-11-19 17:15 /tmp 5. können Benutzerberechtigungen sowohl auf dem Linux-Server als auch über eine grafische Benutzeroberfläche unter Windows (nur Windows NT und höher) konfiguriert werden. wird eine auf diese Weise markierte Datei in den RAM geladen. Über winbindd. set group id und das sticky-Bit gesetzt werden. Sie ermöglichen es. JFS und XFS unterstützt. Das Linux-System stellt den Windows-Clients Datei. da moderne Festplatten schnell genug sind. ACLs sind eine Funktion des Linux-Kernels und werden derzeit von ReiserFS. Dateien eines anderen Benutzers zu löschen. Berechtigungen zu gewähren. wenn Sie einen Windows-Server durch einen Linux-Server ersetzen möchten. die nur in der Windows-Domäne existieren und über kein Konto auf dem Linux-Server verfügen. ACLs können als Erweiterung des traditionellen Berechtigungskonzepts verwendet werden.

3 Definitionen Benutzerklasse Das traditionelle POSIX-Berechtigungskonzept verwendet drei Klassen von Benutzern für das Zuweisen von Berechtigungen im Dateisystem: den Eigentümer (owner). „Typen von ACL-Einträgen“ (S.5. die Eigentümer der Datei ist.4 Arbeiten mit ACLs Tabelle 5. der im Bezeichnerfeld des Eintrags angegeben ist. und Berechtigungen. Die Einträge des Typs named group definieren die Berechtigungen der im Bezeichnerfeld des Eintrags angegebenen Gruppe. Pro Benutzerklasse können jeweils die drei Berechtigungsbits zum Lesen (r). ACL-Eintrag Jede ACL besteht aus mehreren ACL-Einträgen. 158 Referenz . Der Eintrag owning group definiert die Berechtigungen der Gruppe. Die Einträge des Typs named user definieren die Berechtigungen des Benutzers. Für einige Eintragstypen ist der Bezeichner für die Gruppe oder die Benutzer nicht definiert. Ein ACL-Eintrag enthält einen Typ. Schreiben (w) und Ausführen (x) gesetzt werden. Diese legen fest. wenn das Objekt von seinem übergeordneten Verzeichnis erstellt wird. 5. die Eigentümergruppe (owning group) und andere Benutzer (other). Der Eintrag owner definiert die Berechtigungen des Benutzers. in welchem Fall die Einträge „owner“ und „owning group“ sich auf den neuen Eigentümer bzw. Der Superuser kann den Eigentümer (owner) oder die Eigentümergruppe (owning group) mit chown oder chgrp ändern. die neue Eigentümergruppe beziehen.1. welche Berechtigungen ein Dateisystemobjekt übernimmt. Zugriffs-ACL Die Zugriffsberechtigungen für Benutzer und Gruppen auf beliebige Dateisystemobjekte (Dateien und Verzeichnisse) werden über Access ACLs (Zugriffs-ACLs) festgelegt. Standard-ACL Standard-ACLs können nur auf Verzeichnisse angewendet werden. 159) fasst die sechs möglichen Typen von ACL-Einträgen zusammen und beschreibt die für einen Benutzer oder eine Gruppe von Benutzern verfügbaren Berechtigungen. auf den bzw. der Eigentümer der Datei oder des Verzeichnisses ist. die sich der Eintrag bezieht. einen Bezeichner für den Benutzer oder die Gruppe.

werden sie wirksam.1 Typ owner named user owning group named group mask other Typen von ACL-Einträgen Textformat user::rwx user:name:rwx group::rwx group:name:rwx mask::rwx other::rwx Zugriffskontrolllisten unter Linux 159 . „owning group“ und „other“.Nur die Einträge des Typs „named user“ und „named group“ verfügen über ein Bezeichnerfeld. Dieser Mechanismus wird mit dem Beispiel in Tabelle 5. sind nicht wirksam. 160) verdeutlicht. Sie muss einen Eintrag des Typs „mask“ enthalten und kann mehrere Einträge des Typs „named user“ und „named group“ haben. Tabelle 5. die nur in der Maske oder nur im eigentlichen Eintrag vorhanden sind.2. Die in den Einträgen „owner“ und „owning group“ gewährten Berechtigungen sind immer wirksam. h. „named group“ und „owning group“ gewährten Berechtigungen ein. Sind Berechtigungen sowohl in einem der oben genannten Einträge als auch in der Maske vorhanden. Der Eintrag mask schränkt die durch die Einträge „named user“.. Der Eintrag other definiert die Berechtigungen aller anderen Benutzer. die den traditionellen Berechtigungsbits für Dateien und Verzeichnisse entsprechen. die Berechtigungen werden nicht gewährt. d. indem durch ihn festgelegt werden kann. welche der Berechtigungen in diesen Einträgen wirksam und welche maskiert sind. Eine erweiterte ACL geht über dieses Konzept hinaus. das nicht leer ist. Es gibt zwei grundlegende Klassen von ACLs: Eine minimale ACL enthält nur die Einträge für die Typen „owner“. „Maskierung von Zugriffsberechtigungen“ (S. Berechtigungen.

161) zeigen eine minimale und eine erweiterte ACL. „Minimale ACL: ACL-Einträge vs. Die Zuordnung der Berechtigungen des Typs group class ist in den beiden Fällen jedoch unterschiedlich.4. Berechtigungsbits“ (S. Abbildung 5.1. 160) und Abbildung 5. Berechtigungsbits Im Fall einer minimalen ACL – ohne „mask“ – werden die „group class“-Berechtigungen dem ACL-Eintrag „owning group“ zugeordnet. Der linke Block zeigt die Typspezifikationen der ACL-Einträge.1 ACL-Einträge und Dateimodus-Berechtigungsbits Abbildung 5. In beiden Fällen werden die Berechtigungen owner class dem ACL-Eintrag „owner“ zugeordnet. der mittlere Block zeigt ein Beispiel einer ACL und der rechte Block zeigt die entsprechenden Berechtigungsbits gemäß dem herkömmlichen Berechtigungskonzept. „Erweiterte ACL: ACL-Einträge vs. Die Abbildungen sind in drei Blöcke gegliedert. 160) dargestellt.1 Minimale ACL: ACL-Einträge vs. wie sie beispielsweise auch ls -l anzeigt.2.1. „Minimale ACL: ACL-Einträge vs. Im Fall einer erweiterten ACL – mit „mask“ – werden die „group class“-Berechtigungen dem „mask“-Eintrag 160 Referenz . Berechtigungsbits“ (S.Tabelle 5. Dies ist in Abbildung 5. Berechtigungsbits“ (S. Other class-Berechtigungen werden dem entsprechenden ACL-Eintrag zugeordnet.2 Eintragstyp named user mask Maskierung von Zugriffsberechtigungen Textformat user:geeko:r-x mask::rwwirksame Berechtigungen: Berechtigungen r-x rwr-- 5.

spiegelt sich dies in der ACL wider und umgekehrt. Berechtigungsbits Durch diese Art der Zuordnung ist die reibungslose Interaktion von Anwendungen mit und ohne ACL-Unterstützung gewährleistet.. der Gruppe den Schreibzugriff (2) verweigert und allen anderen Benutzern überhaupt keine Berechtigungen erteilt (7).. Mit dem Befehl ls -dl mydir können Sie prüfen. Die entsprechenden Berechtigungsbits werden von umask maskiert oder deaktiviert.. wobei er dem Eigentümer sämtliche Berechtigungen (0) gewährt. Der Befehl umask 027 legt die Standardberechtigungen fest.2 Ein Verzeichnis mit einer Zugriffs-ACL Mit getfacl und setfacl in der Befehlszeile können Sie auf ACLs zugreifen. Weitere Informationen hierzu finden Sie auf der Manualpage umask. Berechtigungsbits“ (S.2.zugeordnet. tux project3 . Die Verwendung dieser Befehle wird im folgenden Beispiel erläutert: Bevor Sie das Verzeichnis erstellen. Werden Berechtigungsbits geändert. ob alle Berechtigungen ordnungsgemäß zugewiesen wurden. 5. welche Zugriffsberechtigungen gleich beim Erstellen von Dateiobjekten maskiert werden sollen. Die Ausgabe für dieses Beispiel sieht wie folgt aus: drwxr-x--. 161) dargestellt. die mittels der Berechtigungsbits festgelegt wurden.. können Sie mit dem Befehl umask festlegen. sind die Obergrenze für alle anderen „Feineinstellungen“..4. Dies ist in Abbildung 5. mkdir mydir erstellt das Verzeichnis mydir mit den durch umask festgelegten Standardberechtigungen. Es werden ähnliche Informationen wie im folgenden Beispiel zurückgegeben: Zugriffskontrolllisten unter Linux 161 . mydir Mit dem Befehl getfacl mydir prüfen Sie den anfänglichen Status der ACL.2 Erweiterte ACL: ACL-Einträge vs. Die Zugriffsberechtigungen. „Erweiterte ACL: ACL-Einträge vs. Abbildung 5. die per ACL vorgenommen werden.

„owning group“ und „other“. Ändern Sie die ACL so. Das nachfolgende Argument gibt an. Insgesamt liefert Ihnen der Befehl getfacl im Fall dieser minimalen ACL keine Informationen. welche ACL-Einträge geändert werden (mehrere Einträge werden durch Kommas voneinander getrennt). tux project3 . Mit dem Befehl getfacl können Sie sich die resultierende ACL ansehen.und Ausführberechtigungen gewähren. Eigentümer und Eigentümergruppe des Verzeichnisses.group:mascots:rwx mydir Mit der Option -m kann per setfacl die vorhandene ACL geändert werden. Im letzten Teil geben Sie den Namen des Verzeichnisses an. Der mask-Eintrag wird automatisch gesetzt. Schreib. sodass alle Berechtigungen wirksam sind. drwxrwx---+ . Dazu gehören „named user“.. entsprechen jetzt dem mask-Eintrag.. Die drei nächsten Zeilen enthalten die drei ACL-Einträge „owner“. Außerdem passt setfacl vorhandene mask-Einträge automatisch an die geänderten Einstellungen an.. die mit ls -dl mydir ausgegeben werden. # file: mydir # owner: tux # group: project3 user::rwx user:geeko:rwx group::r-x group:mascots:rwx mask::rwx other::--- Zusätzlich zu den von Ihnen erstellten Einträgen für den Benutzer geeko und die Gruppe mascots wurde ein „mask“-Eintrag generiert. dass Sie dem zusätzlichen Benutzer geeko und der zusätzlichen Gruppe mascots Lese-.. Sie deaktivieren diese Funktion mit -n. indem Sie folgenden Befehl eingeben: setfacl -m user:geeko:rwx. die Sie mit ls nicht auch erhalten hätten. es sei denn. „mask“ legt die maximal wirksamen Zugriffsberechtigungen für alle Einträge innerhalb der „group class“ fest. Die Berechtigungsbits des Typs „group class“. mydir 162 Referenz .# file: mydir # owner: tux # group: project3 user::rwx group::r-x other::--- Die ersten drei Zeilen der Ausgabe nennen Namen. „named group“ und „owning group“. für das diese Änderungen gelten sollen.

Zugriffskontrolllisten unter Linux 163 . Allerdings sind die wirklich wirksamen Zugriffsberechtigungen für die „owning group“ als die Schnittmenge aus den für „owning group“ und den für „mask“ gesetzten Berechtigungen definiert. 160)). Die ursprünglichen Berechtigungen können jederzeit mit dem Befehl chmod g+w mydir wiederhergestellt werden. ls -dl mydir gibt dann Folgendes aus: drwxr-x---+ . tux project3 . hat sich also nach dem Hinzufügen der ACL-Einträge nichts geändert.. mydir getfacl mydir erzeugt folgende Ausgabe: # file: mydir # owner: tux # group: project3 user::rwx user:geeko:rwx group::r-x group:mascots:rwx mask::r-x other::--- # effective: r-x # effective: r-x Nachdem Sie mit dem Befehl chmod den Schreibzugriff über die „group class“-Bits deaktiviert haben. um darauf hinzuweisen.Die erste Spalte der Ausgabe enthält ein zusätzliches +.. dass die „owning group“ (hier project3) ebenfalls Schreibzugriff auf das Verzeichnis mydir hätte.2. Gemäß der Ausgabe des Befehls ls beinhalten die Berechtigungen für den mask-Eintrag auch Schreibzugriff. weil sie vom mask-Eintrag herausgefiltert werden.. liefert Ihnen bereits die Ausgabe des Befehls ls den Hinweis darauf. Geben Sie beispielsweise chmod g-w mydir ein. Dieser Befehl fügt allen Einträgen Kommentare hinzu. Solche Berechtigungsbits würden normalerweise bedeuten. „Maskierung von Zugriffsberechtigungen“ (S. Was die wirksamen Berechtigungen der „owning group“ in diesem Beispiel betrifft.. deren tatsächlich wirksame Berechtigungsbits nicht mit den ursprünglich gesetzten übereinstimmen. in unserem Beispiel also r-x (siehe Tabelle 5. dass für dieses Objekt eine erweiterte ACL vorhanden ist. Bearbeiten Sie den mask-Eintrag mit setfacl oder chmod. dass die mask-Bits entsprechend angepasst wurden: Die Schreibberechtigung ist wieder auf den Eigentümer von mydir beschränkt. Dies wird durch die Ausgabe des Befehls getfacl bestätigt.

der die Zugriffsberechtigungen für das neu erstellte Dateisystemobjekt definiert. • Eine Datei erbt die Standard-ACL als ihre eigene Zugriffs-ACL.4. Fügen Sie dem vorhandenen Verzeichnis mydir eine Standard-ACL hinzu.5. Dabei handelt es sich um einen speziellen Typ von ACL.3 Ein Verzeichnis mit einer Standard-ACL Verzeichnisse können über eine Standard-ACL verfügen. Standard-ACLs in der Praxis Die drei folgenden Beispiele führen Sie an die wichtigsten Operationen an Verzeichnissen und Standard-ACLs heran: 1. Hat das übergeordnete Verzeichnis keine Standard-ACL. welche Zugriffsberechtigungen neue Unterobjekte dieses Verzeichnisses bei ihrer Erstellung erben. 164 Referenz . der festlegt. die Dateisystemobjekte anlegen. werden die mit umask definierten Berechtigungsbits mit dem mode-Parameter von den Berechtigungen abgezogen und das Ergebnis wird dem neuen Objekt zugewiesen. entsprechen die dem neuen Objekt zugewiesenen Berechtigungsbits der Schnittmenge aus den Berechtigungen des mode-Parameters und den in der Standard-ACL festgelegten Berechtigungen. die folgenden Änderungen (Option -m) an der Standard-ACL vorzunehmen. Auswirkungen einer Standard-ACL Die Zugriffsberechtigungen in der Standard-ACL eines Verzeichnisses werden an Dateien und Unterverzeichnisse unterschiedlich vererbt: • Ein Unterverzeichnis erbt die Standard-ACL des übergeordneten Verzeichnisses sowohl als seine eigene Standard-ACL als auch als Zugriffs-ACL. indem Sie folgenden Befehl eingeben: setfacl -d -m group:mascots:r-x mydir Die Option -d des Befehls setfacl weist setfacl an. Eine Standard-ACL wirkt sich sowohl auf Unterverzeichnisse als auch auf Dateien aus. Existiert eine Standard-ACL für das übergeordnete Verzeichnis. Alle Systemaufrufe. verwenden einen mode-Parameter. umask wird in diesem Fall nicht beachtet.

um so eine gültige Standard-ACL zu bilden. Standard-ACLs haben keine direkten Auswirkungen auf Zugriffsberechtigungen. Obwohl Sie den Befehl setfacl nur mit einem Eintrag für die Gruppe mascots für die Standard-ACL ausgeführt haben. 2.Sehen Sie sich das Ergebnis dieses Befehls genauer an: getfacl mydir # file: mydir # owner: tux # group: project3 user::rwx user:geeko:rwx group::r-x group:mascots:rwx mask::rwx other::--default:user::rwx default:group::r-x default:group:mascots:r-x default:mask::r-x default:other::--- getfacl gibt sowohl die Zugriffs-ACL als auch die Standard-ACL zurück. mkdir mydir/mysubdir getfacl mydir/mysubdir # file: mydir/mysubdir # owner: tux # group: project3 user::rwx group::r-x group:mascots:r-x mask::r-x other::--default:user::rwx default:group::r-x default:group:mascots:r-x default:mask::r-x default:other::--- Zugriffskontrolllisten unter Linux 165 . Sie wirken sich nur beim Erstellen von Dateisystemobjekten aus. Im nächsten Beispiel wird mit mkdir ein Unterverzeichnis in mydir angelegt. Die Standard-ACL setzt sich aus allen Zeilen zusammen. die mit default beginnen. hat setfacl automatisch alle anderen Einträge aus der Zugriffs-ACL kopiert. das die Standard-ACL übernimmt. Diese neuen Objekte übernehmen Berechtigungen nur aus der Standard-ACL ihres übergeordneten Verzeichnisses.

maskiert werden. Beispiel: touch mydir/myfile. 3.. dass alle Zugriffsberechtigungen.. die nicht im mode-Wert enthalten sind. Am konkreten Beispiel heißt dies. Aus dem ACL-Eintrag der „group class“ wurden keine Berechtigungen entfernt. reibungslos mit ACLs interagieren können. Die ACL- 166 Referenz . Die Standard-ACL. die nicht mit mode gesetzt werden.und Schreibberechtigungen für alle Benutzerklassen angelegt werden. ls -l mydir/myfile gibt dann Folgendes zurück: -rw-r-----+ .. aus den entsprechenden ACL-Einträgen entfernt werden. dass Anwendungen. Die Zugriffs-ACL von mysubdir ist ein exaktes Abbild der Standard-ACL von mydir.. hat das neu angelegte Unterverzeichnis mysubdir die Berechtigungen aus der Standard-ACL des übergeordneten Verzeichnisses geerbt. dass neue Dateien mit Lese. ist ebenfalls dieselbe. zum Beispiel Compiler. die dieses Verzeichnis an ihre untergeordneten Objekte weitervererbt. 164)). allerdings wurde der mask-Eintrag dahin gehend angepasst. Legen Sie mit touch eine Datei im Verzeichnis mydir an. Über den mask-Mechanismus ist gewährleistet.4 Der ACL-Auswertungsalgorithmus Bevor ein Prozess oder eine Anwendung Zugriff auf ein durch eine ACL geschütztes Dateisystemobjekt erhält. mydir/myfile Die Ausgabe von getfacl mydir/myfile lautet wie folgt: # file: mydir/myfile # owner: tux # group: project3 user::rwgroup::r-x # effective:r-group:mascots:r-x # effective:r-mask::r-other::--- touch übergibt mode mit dem Wert 0666. dass die richtigen Benutzer und Gruppen die Dateien wie gewünscht ausführen können. wird ein Auswertungsalgorithmus angewendet. Sie können Dateien mit beschränkten Zugriffsberechtigungen erstellen und diese anschließend als ausführbar markieren.Wie erwartet. tux project3 . vorausgesetzt. umask oder die Standard-ACL enthalten keine weiteren Einschränkungen (siehe „Auswirkungen einer Standard-ACL“ (S. 5.4. Dies bedeutet. dass Berechtigungsbits. Auf diese Weise ist sichergestellt.

also potenziell auch mehrere group-Einträge dazu passen können. Für das Endresultat „Zugriff gewährt“ ist es natürlich unerheblich. ob die Zugriffs-ACL nach Abschluss der Bearbeitung weiterhin vorliegt. Viele Editoren und Dateimanager bieten jedoch keine ACL-Unterstützung. wird schließlich der Zugriff geregelt. Schreibt der Editor die Änderungen in die Originaldatei.Einträge werden grundsätzlich in der folgenden Reihenfolge untersucht: „owner“. Ähnliches gilt. Zugriffskontrolllisten unter Linux 167 . welcher dieser Einträge den Ausschlag gegeben hat. bleibt die Zugriffs-ACL erhalten. die den Anforderungen moderner Anwendungen gerecht werden.) unterstützen ACLs ebenso wie Samba und Konqueror. Mit Ausnahme von Star Archiver gibt es derzeit keine Backup-Anwendungen. mv. die nach Abschluss der Änderungen in die alte umbenannt wird. „named user“. 5. hängt es vom Backup-Modus des verwendeten Editors ab. ls usw. es sei denn. bei deren Verwendung die ACLs erhalten bleiben. Beim Kopieren von Dateien mit Emacs gehen die ACLs der entsprechenden Dateien beispielsweise noch verloren. der am besten auf den Prozess passt. Das traditionelle Berechtigungskonzept und ACLs lassen sich geschickt miteinander kombinieren. Die grundlegenden Dateibefehle (cp. wenn keiner der passenden group-Einträge die erforderlichen Berechtigungen enthält. Komplizierter werden die Verhältnisse. In diesem Fall löst ein per Zufallsprinzip ausgewählter Eintrag das Ergebnis „Zugriff verweigert“ aus. der Editor unterstützt ACLs. Berechtigungen werden nicht akkumuliert. wenn ein Prozess zu mehr als einer Gruppe gehört. gehen die ACLs möglicherweise verloren. Legt der Editor eine neue Datei an. Wenn Dateien mit einer Zugriffs-ACL im Editor bearbeitet werden. Aus den passenden Einträgen mit den erforderlichen Berechtigungen wird per Zufallsprinzip ein Eintrag ausgesucht.5 ACL-Unterstützung in Anwendungen Mit ACLs können sehr anspruchsvolle Berechtigungsszenarien umgesetzt werden. Über den Eintrag. „owning group“ oder „named group“ und „other“.

Weitere Informationen finden Sie außerdem auf den Manualpages für getfacl(1). 168 Referenz . acl(5) und setfacl(1).bestbits .at/.5.6 Weitere Informationen Ausführliche Informationen zu ACLs finden Sie unter http://acl.

]) gekennzeichnet und lange Zeilen werden. Dienstprogramme zur Systemüberwachung 169 . mit denen Sie den Zustand Ihres Systems untersuchen können.] output line 98 output line 99 6 Damit möglichst viele Dienstprogramme erwähnt werden können.. Umbrüche langer Zeilen sind durch einen umgekehrten Schrägstrich (\) gekennzeichnet. so long that \ we have to break it output line 3 [.. Weiterhin werden einige. falls erforderlich..oder #-Zeichen als Eingabeaufforderung)..Dienstprogramme zur Systemüberwachung In diesem Kapitel werden verschiedene Programme und Mechanismen vorgestellt. Die meisten Befehle verstehen auch die Option --help. mit der Sie eine kurze Liste der verfügbaren Parameter anzeigen können. Darin ist die erste Zeile der Befehl selbst (nach einem >. umgebrochen. Weitere Informationen zu allen Befehlen finden Sie auf den entsprechenden Manualpages. Für die vorgestellten Befehle werden jeweils beispielhafte Ausgaben dargestellt. sind die Beschreibungen kurz gehalten. # command -x -y output line 1 output line 2 output line 3 is annoyingly long. für die tägliche Arbeit nützliche Dienstprogramme sowie deren wichtigste Optionen beschrieben. Auslassungen sind durch eckige Klammern ([.

5 7 /dev/pts/5 bash 5552 tester 255u CHR 136.utf8/LC_CTYPE bash 5552 tester mem REG 3.3 217016 115687 /var/run/nscd/passwd bash 5552 tester mem REG 3.3 2375 11663 \ /usr/lib/locale/en_GB.1 bash 5552 tester mem REG 3.3 190200 13006 /lib/libreadline.3 366 9720 \ /usr/lib/locale/en_GB.3 882134 11868 \ /usr/lib/locale/en_GB.6.6. Da dies in der Regel recht viele sind.so.utf8/LC_NAME bash 5552 tester mem REG 3.5 7 /dev/pts/5 Es wurde die spezielle Shell-Variable $$ verwendet.3 23 11866 \ /usr/lib/locale/en_GB. wird dieser Befehl selten ver- 170 Referenz .3 584 2 / bash 5552 tester txt REG 3.utf8/LC_MONETARY bash 5552 tester mem REG 3.so bash 5552 tester mem REG 3.utf8/LC_TIME bash 5552 tester mem REG 3.utf8/LC_PAPER bash 5552 tester mem REG 3.utf8/LC_NUMERIC bash 5552 tester mem REG 3.so bash 5552 tester mem REG 3.1 bash 5552 tester mem REG 3.so.0 0 [heap] (stat: No such \ file or directory) bash 5552 tester mem REG 3.5.3 97165 8828 /lib/ld-2.3 1386997 8837 /lib/libc-2. verwenden Sie -p.6.3 290856 12204 /lib/libncurses.3 498816 13047 /bin/bash bash 5552 tester mem REG 0.3 56 11735 \ /usr/lib/locale/en_GB.5.3 26936 13004 /lib/libhistory.3 13836 8843 /lib/libdl-2.3 290 11736 \ /usr/lib/locale/en_GB.cache bash 5552 tester mem REG 3.5 bash 5552 tester mem REG 3.3 208464 11867 \ /usr/lib/locale/en_GB. Um beispielsweise alle von der aktuellen Shell verwendeten Dateien anzuzeigen.utf8/LC_MEASUREMENT bash 5552 tester mem REG 3. geben Sie Folgendes ein: tester@linux:~> lsof -p $$ COMMAND PID USER FD TYPE DEVICE SIZE NODE NAME bash 5552 tester cwd DIR 3.3 62 11839 \ /usr/lib/locale/en_GB.so.5.so bash 5552 tester 0u CHR 136.1 Liste der geöffneten Dateien: lsof Um eine Liste aller Dateien anzuzeigen. werden alle aktuell geöffneten Dateien angezeigt.utf8/LC_IDENTIFICATION bash 5552 tester mem REG 3.3 127 11664 \ /usr/lib/locale/en_GB.utf8/LC_MESSAGES/SYS_LC_MESSAGES bash 5552 tester mem REG 3.3 34 11862 \ /usr/lib/locale/en_GB.3.3 21544 9109 \ /usr/lib/gconv/gconv-modules.utf8/LC_TELEPHONE bash 5552 tester mem REG 3.3 1512 117619 /home/tester bash 5552 tester rtd DIR 3.utf8/LC_COLLATE bash 5552 tester mem REG 3.utf8/LC_ADDRESS bash 5552 tester mem REG 3. Wird der Befehl lsof ohne Parameter eingegeben.3 54 11842 \ /usr/lib/locale/en_GB.5 7 /dev/pts/5 bash 5552 tester 1u CHR 136. deren Wert die Prozess-ID der Shell ist.3.5 7 /dev/pts/5 bash 5552 tester 2u CHR 136. die für den Prozess mit der Prozess-ID PID geöffnet sind.3 52 11831 \ /usr/lib/locale/en_GB.6.3.

txt Nach dem Beenden des Prozesses less. Angenommen.3 Dateieigenschaften: stat Mit dem Befehl stat zeigen Sie die Eigenschaften einer Datei an: tester@linux:~> stat /etc/profile File: `/etc/profile' Size: 7930 Blocks: 16 Device: 303h/771d Inode: 40657 Access: (0644/-rw-r--r--) Uid: ( 0/ IO Block: 4096 Links: 1 root) Gid: ( regular file 0/ root) Dienstprogramme zur Systemüberwachung 171 .0 136.2 Liste der Benutzer bzw.0 136. less /mnt/notes.0 136.. 6. um sinnvolle Listen zu generieren. kann das Aushängen des Dateisystems erfolgreich ausgeführt werden.5 136.. Prozesse. unmount gibt „device is busy“ zurück.5 136. das unter /mnt eingehängt ist. Mit dem Befehl fuser können Sie anschließend ermitteln.5 136. Beispiel: Liste aller verwendeten zeichenorientierten Geräte: tester@linux:~> lsof | grep CHR bash 3838 tester 0u bash 3838 tester 1u bash 3838 tester 2u bash 3838 tester 255u bash 5552 tester 0u bash 5552 tester 1u bash 5552 tester 2u bash 5552 tester 255u X 5646 root mem lsof 5673 tester 0u lsof 5673 tester 2u grep 5674 tester 1u grep 5674 tester 2u CHR CHR CHR CHR CHR CHR CHR CHR CHR CHR CHR CHR CHR 136.5 136.5 2 2 2 2 7 7 7 7 1006 7 7 7 7 /dev/pts/0 /dev/pts/0 /dev/pts/0 /dev/pts/0 /dev/pts/5 /dev/pts/5 /dev/pts/5 /dev/pts/5 /dev/mem /dev/pts/5 /dev/pts/5 /dev/pts/5 /dev/pts/5 6.5 1. zu ermitteln. welche Prozesse auf das Gerät zugreifen: tester@linux:~> fuser -v /mnt/* USER tester PID ACCESS COMMAND 26597 f. Sie möchten ein Dateisystem aushängen.wendet.0 136. Die Liste der Dateien kann jedoch mit Suchfunktionen kombiniert werden. welche Prozesse oder Benutzer aktuell auf bestimmte Dateien zugreifen.5 136.. die auf Dateien zugreifen: fuser Es kann hilfreich sein. der auf einem anderen Terminal ausgeführt wurde.1 136.5 136.

die Informationen zu einer Festplatte enthält.5 Informationen zu einem SCSI-Gerät: scsiinfo Mit dem Befehl scsiinfo können Sie Informationen zu einem SCSI-Gerät anzeigen. Das folgende ist die Ausgabe von lsusb mit den angeschlossenen USB-Geräten Hub. Die detaillierten Informationen werden aus dem Verzeichnis /proc/bus/usb/ gelesen. in dem sich die angegebene Datei befindet: tester@linux:~> stat /etc/profile --filesystem File: "/etc/profile" ID: 0 Namelen: 255 Type: reiserfs Block size: 4096 Fundamental block size: 4096 Blocks: Total: 2622526 Free: 1809771 Available: 1809771 Inodes: Total: 0 Free: 0 6. USB-2. Transcend JetFlash \ Cypress Semiconductor Corp. Inc. Optical Mouse 6. linux:/ # lsusb Bus 004 Device 007: ID 0ea0:2168 2.0 IDE \ Genesys Logic. 172 Referenz .0 / Astone USB Drive Bus 004 Device 006: ID 04b4:6830 Adapter Bus 004 Device 005: ID 05e3:0605 Bus 004 Device 001: ID 0000:0000 Bus 003 Device 001: ID 0000:0000 Bus 002 Device 001: ID 0000:0000 Bus 001 Device 005: ID 046d:c012 Bus 001 Device 001: ID 0000:0000 Ours Technology.000000000 +0100 Mit dem Parameter --filesystem werden Eigenschaften des Dateisystems angezeigt. Mit der Option -l werden alle dem System bekannten SCSI-Geräte aufgelistet (ähnliche Informationen erhalten Sie über den Befehl lsscsi).000000000 +0100 Modify: 2005-11-21 14:54:35. Mit der Option -v wird eine detailliertere Liste ausgegeben. Memorystick. Logitech.4 USB-Geräte: lsusb Mit dem Befehl lsusb werden alle USB-Geräte aufgelistet. Im Folgenden sehen Sie die Ausgabe von scsiinfo -i /dev/sda.Access: 2006-01-06 16:45:43. Inc.000000000 +0100 Change: 2005-12-19 09:51:04. Inc. Mit der Option -a erhalten Sie noch ausführlichere Informationen. Festplatte und Maus.

353328k cached PID USER 1 root 2 root PR 16 34 NI 0 19 VIRT 700 0 RES 272 0 SHR S %CPU %MEM 236 S 0.5% us. Das Programm wird mit der Taste Q beendet. 83 sleeping.0 0. 0. load average: 0.0% si Mem: 515584k total. wird eine Liste der Prozesse angezeigt.0 TIME+ COMMAND 0:01.9% id. 0.00 ksoftirqd/0 Dienstprogramme zur Systemüberwachung 173 . die Festplatte zu ersetzen.33 init 0:00. 66324k buffers Swap: 658656k total.0% hi. 9116k free.8% sy. 0. 0 zombie Cpu(s): 5. Mit der Option -n 1 wird das Programm nach einmaliger Anzeige der Prozessliste beendet. der für „Table of Processes“ (Tabelle der Prozesse) steht. 506468k used. die während des Betriebs aufgetreten sind (grown table). 5 users.17:06:28 up 2:10. 0k used.1 0 S 0. 1 stopped.0% wa. 6. 1 running. 1. empfiehlt es sich. Wenn die Anzahl der Einträge in der während des Betriebs generierten Tabelle (grown table) zunimmt.00.00. 91. 658656k free. die zwei Tabellen mit fehlerhaften Blöcken einer Festplatte enthält: die erste stammt vom Hersteller (manufacturer table). 0. 0. 0.linux:/ # scsiinfo -i /dev/sda Inquiry command --------------Relative Address 0 Wide bus 32 0 Wide bus 16 1 Synchronous neg.0 0. die zweite ist die Liste der fehlerhaften Blöcke.00 Tasks: 85 total.6 Prozesse: top Mit dem Befehl top. Im Folgenden finden Sie ein Beispiel für die Ausgabe des Befehls top -n 1: tester@linux:~> top -n 1 top .8% ni. die alle zwei Sekunden aktualisiert wird. 1 Linked Commands 1 Command Queueing 1 SftRe 0 Device Type 0 Peripheral Qualifier 0 Removable? 0 Device Type Modifier 0 ISO Version 0 ECMA Version 0 ANSI Version 3 AENC 0 TrmIOP 0 Response Data Format 2 Vendor: FUJITSU Product: MAS3367NP Revision level: 0104A0K7P43002BE Die Option -d gibt eine Defektliste aus.

0 0.0 0. Über ps --help erhalten Sie eine kurze und auf der entsprechenden Manualpage eine ausführliche Hilfe.2 0.64 0:00.0 root 3 0.10 0:02. wird ein Menü geöffnet.07 0:00. Der Befehl top -U `id -u` gibt die UID des Benutzers auf Basis des Benutzernamens zurück und zeigt dessen Prozesse an.] VSZ 696 0 0 RSS TTY 272 ? 0 ? 0 ? STAT START TIME COMMAND S 12:59 0:01 init [5] SN 12:59 0:00 [ksoftirqd/0] S< 12:59 0:00 [events/0] 174 Referenz .00 0:00.1 0.0 0. kann der Parameter -U UID verwendet werden. verwenden Sie ps axu: tester@linux:~> ps axu USER PID %CPU %MEM root 1 0.27 0:00.0 0.02 0:00.0 0. Um alle Prozesse mit Benutzer.00 0:00.0 0.00 0:00.0 0.00 0:00.0 0..00 0:00.06 0:00.0 0.0 0.0 0.1 0.1 0.0 0.0 0.56 events/0 khelper kthread kblockd/0 kacpid pdflush pdflush aio/0 kswapd0 kseriod reiserfs/0 udevd khubd shpchpd_event w1_control w1_bus_master1 acpid dbus-daemon syslog-ng klogd resmgrd hald hald-addon-acpi NetworkManagerD hald-addon-stor Wenn Sie die Taste F drücken.0 0.05 0:00.0 0.0 0.0 0.0 0.0 0.2 0.0 0.0 0.0 [.0 0.1 0.0 0.00 0:00.und Befehlszeileninformation aufzulisten.0 0.7 Prozessliste: ps Mit dem Befehl ps wird eine Liste von Prozessen generiert.1 0:00..0 0.0 0. Um nur die Prozesse eines bestimmten Benutzers zu überwachen.00 0:00.0 0.00 0:00.0 root 2 0.67 0:00.0 0.0 0. während top aktiv ist.01 0:00.00 0:00.0 0.0 0.00 0:00.0 0.0 0.00 0:00.1 0.0 0.00 0:00.0 0.0 0.6 0. Ersetzen Sie UID durch die Benutzer-ID des Benutzers. in dem das Format der Ausgabe umfassend bearbeitet werden kann.05 0:00.3 4 5 11 12 472 473 475 474 681 839 923 1343 1587 1746 1752 2151 2165 2166 2171 2235 2289 2403 2709 2714 root root root root root root root root root root root root root root root root root messageb root root root root root root root 10 10 10 10 20 20 15 11 15 10 10 13 10 20 15 15 16 16 15 16 15 16 23 19 16 -5 -5 -5 -5 -5 0 0 -5 0 -5 -5 -4 -5 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 S 0 0 0 S 0 0 0 S 0 0 0 S 0 0 0 S 0 0 0 S 0 0 0 S 0 0 0 S 0 0 0 S 0 0 0 S 0 0 0 S 1712 552 344 S 0 0 0 S 0 0 0 S 0 0 0 S 0 0 0 S 1464 496 416 S 3340 1048 792 S 1840 752 556 S 1600 516 320 S 1736 800 652 S 4192 2852 1444 S 1756 600 524 S 2668 1076 944 S 1756 648 564 S 0. Die meisten Parameter müssen ohne Minuszeichen angegeben werden.01 0:00. 6.01 0:00.0 0.0 0.0 0.0 0.0 0.0 0.0 0.2 0.

] 4028 17556 nautilus --no-default-window --sm-client-id default2 4118 17800 ksnapshot 4114 19172 sound-juicer 4023 25144 gnome-panel --sm-client-id default1 4047 31400 mono-best --debug /usr/lib/beagle/Best..0 1.tester 4047 0. der die Prozess-IDs der gegebenen Prozesse auflistet.0 3.init.1 2324 816 pts/0 R+ 16:17 0:06 mono-best \ 0:00 \ 0:00 \ 0:00 \ 0:04 sound-juicer 0:00 -bash 0:00 ps axu Um zu prüfen.3 4192 1812 pts/0 Ss 15:59 tester 4959 0.. tester@linux:~> ps -p PID TTY STAT 3524 ? Ss 4813 ? Ss 4817 ? R `pidof sshd` TIME COMMAND 0:00 /usr/sbin/sshd -o PidFile=/var/run/sshd. Mit der Option -L wird eine Liste aller Schlüsselwörter zurückgegeben.0 0. Geben Sie den folgenden Befehl ein. wie viele sshd-Prozesse laufen.rss.pid 0:00 sshd: tester [priv] 0:00 sshd: tester@pts/0 Sie können die Prozessliste entsprechend Ihren Anforderungen formatieren.0 0.exe --autostarted tester 4057 0.0 15996 5160 ? Ss 13:02 gnome-screensaver tester 4114 0. um eine nach Speichernutzung aller Prozesse sortierte Liste zu erhalten: tester@linux:~> ps ax --format pid.0 0.0 158548 31400 ? Ssl 13:02 --debug /usr/lib/beagle/Best.1 2204 636 ? S 13:02 /opt/gnome/lib/nautilus/mapping-daemon tester 4072 0.0 0.cmd --sort rss PID RSS CMD 2 0 [ksoftirqd/0] 3 0 [events/0] 4 0 [khelper] 5 0 [kthread] 11 0 [kblockd/0] 12 0 [kacpid] 472 0 [pdflush] 473 0 [pdflush] [.exe --autostarted 3973 31520 mono-beagled --debug /usr/lib/beagle/BeagleDaemon.7 9036 3684 ? Sl 13:02 /opt/gnome/sbin/gnome-vfs-daemon --oaf-activate-iid=OAFIID:GNOME_VFS_Daemon_Factory --oa tester 4067 0. verwenden Sie die Option -p zusammen mit dem Befehl pidof.7 130988 19172 ? SLl 13:06 tester 4818 0.exe \ --bg --autostarted Dienstprogramme zur Systemüberwachung 175 .0 6.

0.00s 0.42s 0.19s 0. verwenden Sie den Parameter -a: 6..15s /bin/sh /opt/kde3/bin/startkde tester pts/0 15:59 0.02 USER TTY LOGIN@ IDLE JCPU PCPU WHAT tester :0 16:33 ?xdm? 9.6.. Beispiel: tester@linux:~> w 16:33:03 up 3:33.00s w 176 Referenz .9 Wer macht was: w Mit dem Befehl w ermitteln Sie.8 Prozessbaum: pstree Mit dem Befehl pstree wird eine Liste der Prozesse in Form einer Baumstruktur generiert: tester@linux:~> pstree init-+-NetworkManagerD |-acpid |-3*[automount] |-cron |-cupsd |-2*[dbus-daemon] |-dbus-launch |-dcopserver |-dhcpcd |-events/0 |-gpg-agent |-hald-+-hald-addon-acpi | `-hald-addon-stor |-kded |-kdeinit-+-kdesu---su---kdesu_stub---yast2---y2controlcenter | |-kio_file | |-klauncher | |-konqueror | |-konsole-+-bash---su---bash | | `-bash | `-kwin |-kdesktop---kdesktop_lock---xmatrix |-kdesud |-kdm-+-X | `-kdm---startkde---kwrapper [. 0. load average: 0. 2 users.14.06. Damit auch die Befehlszeilen angezeigt werden. wer beim System angemeldet ist und was die einzelnen Benutzer gerade machen.] Mit dem Parameter -p werden die Namen durch die jeweiligen Prozess-IDs ergänzt.

So wird die Anzeige mit free -d 1.11 Kernel Ring Buffer: dmesg Der Linux-Kernel hält bestimmte Meldungen in einem Ringpuffer zurück. Der Parameter -d N gewährleistet. von welchen Computern aus diese Verbindungen aufgebaut wurden. Dienstprogramme zur Systemüberwachung 177 .] end_request: I/O error. Es werden Details zum freien und zum verwendeten Speicher (sowie zu den Auslagerungsbereichen) angezeigt: ester@linux:~> free total Mem: 515584 -/+ buffers/cache: Swap: 658656 used 501704 94072 0 free 13880 421512 658656 shared 0 buffers 73040 cached 334592 Die Optionen -b. dev fd0.5 beispielsweise alle 1. KB. Um diese Meldungen anzuzeigen..5 Sekunden aktualisiert.-k. MB bzw.. geben Sie den Befehl dmesg ein: $ dmesg [. GB.-m.14 unregistered bootsplash: status on console 0 changed to on NET: Registered protocol family 10 Disabled Privacy Extensions on device c0326ea0(lo) IPv6 over IPv4 tunneling driver powernow: This module only works with AMD K7 CPUs bootsplash: status on console 0 changed to on Ältere Ereignisse werden in den Dateien /var/log/messages und /var/log/ warn protokolliert.10 Speichernutzung: free Die Nutzung des Arbeitsspeichers (RAM) wird mit dem Dienstprogramm free überprüft. 6.14 <tigran@veritas.Wenn sich Benutzer von entfernten Systemen angemeldet haben. dass die Anzeige alle N Sekunden aktualisiert wird. können Sie mit dem Parameter -f anzeigen lassen. 6. half-duplex NET: Registered protocol family 17 IA-32 Microcode Update Driver: v1. sector 0 subfs: unsuccessful attempt to mount media (256) e100: eth0: e100_watchdog: link up. date = 08112004 IA-32 Microcode Update Driver v1.-g zeigen die Ausgabe in Byte. 100Mbps.com> microcode: CPU0 updated from revision 0xe to 0x2e.

in dem der Kernel wichtige Daten in Form von virtuellen Dateien speichert.user_xattr) /dev/hda4 on /local type reiserfs (rw. Der CPU-Typ kann beispielsweise mit dem folgenden Befehl abgerufen werden: 178 Referenz .12 Dateisysteme und ihre Nutzung: mount. df und du Mit dem Befehl mount können Sie anzeigen.nosuid. Der Parameter -h (oder --human-readable) übersetzt die Ausgabe in ein für normale Benutzer verständliches Format.2G 6.procuid) Die Gesamtnutzung der Dateisysteme kann mit dem Befehl df ermittelt werden.gid=5) /dev/hda1 on /boot type ext2 (rw. welches Dateisystem (Gerät und Typ) an welchem Einhängepunkt eingehängt ist: tester@linux:~> mount /dev/hda3 on / type reiserfs (rw.7M /local 6.nodev.6M 7. tester@linux:~> df -h Filesystem Size /dev/hda3 11G udev 252M /dev/hda1 16M /dev/hda4 27G Used Avail Use% Mounted on 3.6.mode=0620.fs=floppyfss.13 Das Dateisystem /proc Das Dateisystem /proc ist ein Pseudo-Dateisystem.user_xattr) /dev/fd0 on /media/floppy type subfs (rw.acl.acl.user_xattr) proc on /proc type proc (rw) sysfs on /sys type sysfs (rw) udev on /dev type tmpfs (rw) devpts on /dev/pts type devpts (rw.acl. -h wandelt die Daten wieder in normal lesbare Form um: tester@linux:~> du -sh /local 1. Der Parameter -s unterdrückt die Ausgabe der detaillierten Informationen.9G 32% / 104K 252M 1% /dev 6.noatime.8M 46% /boot 34M 27G 1% /local Die Gesamtgröße aller Dateien in einem bestimmten Verzeichnis und dessen Unterverzeichnissen lässt sich mit dem Befehl du ermitteln.

.ester@linux:~> cat /proc/cpuinfo processor : 0 vendor_id : AuthenticAMD cpu family : 6 model : 8 model name : AMD Athlon(tm) XP 2400+ stepping : 1 cpu MHz : 2009. uhci_hcd:usb1..343 cache size : 256 KB fdiv_bug : no [. eth0 12: 101150 XT-PIC i8042 14: 33146 XT-PIC ide0 15: 149202 XT-PIC ide1 NMI: 0 LOC: 0 ERR: 0 MIS: 0 Einige wichtige Dateien und die enthaltenen Informationen sind: /proc/devices verfügbare Geräte /proc/modules geladene Kernel-Module /proc/cmdline Kernel-Befehlszeile /proc/meminfo detaillierte Informationen zur Arbeitsspeichernutzung Dienstprogramme zur Systemüberwachung 179 .] Die Zuordnung und Verwendung der Interrupts kann mit dem folgenden Befehl ermittelt werden: tester@linux:~> cat /proc/interrupts CPU0 0: 3577519 XT-PIC timer 1: 130 XT-PIC i8042 2: 0 XT-PIC cascade 5: 564535 XT-PIC Intel 82801DB-ICH4 7: 1 XT-PIC parport0 8: 2 XT-PIC rtc 9: 1 XT-PIC acpi. ehci_hcd:usb4 10: 0 XT-PIC uhci_hcd:usb3 11: 71772 XT-PIC uhci_hcd:usb2.

txt.so /lib/libc-2.gz gzip-komprimierte Konfigurationsdatei des aktuell aktivierten Kernels Weitere Informationen finden Sie in der Textdatei /usr/src/linux/ Documentation/filesystems/proc.6.1 tester users 0 2006-01-09 17:04 wchan Die Adresszuordnung der Programmdateien und Bibliotheken befindet sich in der Datei maps: tester@linux:~> cat /proc/self/maps 08048000-0804c000 r-xp 00000000 03:03 17753 0804c000-0804d000 rw-p 00004000 03:03 17753 0804d000-0806e000 rw-p 0804d000 00:00 0 b7d27000-b7d5a000 r--p 00000000 03:03 11867 /usr/lib/locale/en_GB.1 tester users 0 2006-01-09 17:04 loginuid -r--r--r-.1 tester users 0 2006-01-09 17:04 auxv -r--r--r-.1 tester users 0 2006-01-09 17:04 stat -r--r--r-. Informationen zu aktuell laufenden Prozessen befinden sich in den /proc/NNN-Verzeichnissen.1 tester users 0 2006-01-09 17:04 maps -rw------.so 180 Referenz .1 tester users 0 2006-01-09 17:04 statm -r--r--r-.1 tester users 0 2006-01-09 17:04 cmdline lrwxrwxrwx 1 tester users 0 2006-01-09 17:04 cwd -> /home/tester -r-------.2 tester users 0 2006-01-09 17:04 fd -rw-r--r-.so /lib/libc-2.1 tester users 0 2006-01-09 17:04 oom_adj -r--r--r-.1 tester users 0 2006-01-09 17:04 status dr-xr-xr-x 3 tester users 0 2006-01-09 17:04 task -r--r--r-.3.3.1 tester users 0 2006-01-09 17:04 mounts -rw-r--r-. wobei NNN für die ProzessID (PID) des jeweiligen Prozesses steht.6.1 tester users 0 2006-01-09 17:04 oom_score lrwxrwxrwx 1 tester users 0 2006-01-09 17:04 root -> / -rw------.3.1 tester users 0 2006-01-09 17:04 smaps -r--r--r-.utf8/LC_CTYPE b7d5a000-b7e32000 r--p 00000000 03:03 11868 /usr/lib/locale/en_GB.1 tester users 0 2006-01-09 17:04 environ lrwxrwxrwx 1 tester users 0 2006-01-09 17:04 exe -> /bin/ls dr-x-----. Mit /proc/self/ können die zum aktiven Prozess gehörenden Eigenschaften abgerufen werden: tester@linux:~> ls -l /proc/self lrwxrwxrwx 1 root root 64 2006-01-09 13:03 /proc/self -> 5356 tester@linux:~> ls -l /proc/self/ total 0 dr-xr-xr-x 2 tester users 0 2006-01-09 17:04 attr -r-------.1 tester users 0 2006-01-09 17:04 seccomp -r--r--r-./proc/config.6.1 tester users 0 2006-01-09 17:04 mem -r--r--r-.utf8/LC_COLLATE b7e32000-b7e33000 rw-p b7e32000 00:00 0 b7e33000-b7f45000 r-xp 00000000 03:03 8837 b7f45000-b7f46000 r--p 00112000 03:03 8837 b7f46000-b7f48000 rw-p 00113000 03:03 8837 /bin/cat /bin/cat [heap] \ \ /lib/libc-2.

b7f48000-b7f4c000 rw-p b7f48000 00:00 0 b7f52000-b7f53000 r--p 00000000 03:03 11842 /usr/lib/locale/en_GB.6% 0. uhci_hcd:usb1.6.13.6.so /lib/ld-2.so [stack] [vdso] 6.94 0:00:01.8% 0..1% 0.15-rc5-git3-2-default (geeko@buildhost) (gcc 4.] b7f5b000-b7f61000 r--s 00000000 03:03 9109 /usr/lib/gconv/gconv-modules.utf8/LC_IDENTIFICATION b7f62000-b7f76000 r-xp 00000000 03:03 8828 b7f76000-b7f78000 rw-p 00013000 03:03 8828 bfd61000-bfd76000 rw-p bfd61000 00:00 0 ffffe000-fffff000 ---p 00000000 00:00 0 \ \ \ /lib/ld-2.05 1/86 5406 page in : page out: page act: page dea: page flt: swap in : swap out: context : 442638 134950 70577 11696 1423622 0 0 3813145 2 rtc 1 acpi.3% Load average: 0.cache b7f61000-b7f62000 r--p 00000000 03:03 9720 /usr/lib/locale/en_GB.04 0.72 3799268 130 0 8 8 564535 9 1 timer i8042 cascade [4] Intel 82801DB-ICH4 parport0 [3] irq 8: irq 9: irq 10: irq 11: irq 12: irq 14: irq 15: Dienstprogramme zur Systemüberwachung 181 . eth0 101150 i8042 33733 ide0 157045 ide1 disk 1: 20125r 0:02:07.6.1 procinfo Wichtige Informationen zum Dateisystem /proc werden mit dem Befehl procinfo zusammengefasst: tester@linux:~> procinfo Linux 2.3% 0.40 0:00:08.9% 0.utf8/LC_NUMERIC [.3.3.1.98 0:02:20.0 20051129) #1 Wed Dec 14 13:10:38 UTC 2005 1CPU [linux.93 0:01:25.54 4:13:20.10 0. 0 uhci_hcd:usb3 75905 uhci_hcd:usb2.suse.91 0:00:42.de] Memory: Mem: Swap: Total 515584 658656 Used 509472 0 Free 6112 658656 Shared 0 Buffers 73024 Bootup: Mon Jan user : 13476w nice : system: IOwait: hw irq: sw irq: idle : uptime: irq irq irq irq irq irq irq irq 0: 1: 2: 3: 4: 5: 6: 7: 9 12:59:08 2006 0..29 4:06:30.0% 97.

Beenden Sie in diesem Fall das Programm mit der Taste Q .] 02:08.Verwenden Sie den Parameter -a. Inc. procinfo -dn5 zeigt die Werte an.3 SMBus: Intel Corporation 82801DB/DBL/DBM (ICH4/ICH4-L/ICH4-M) \ SMBus Controller (rev 01) 00:1f.1 USB Controller: Intel Corporation 82801DB/DBL/DBM \ (ICH4/ICH4-L/ICH4-M) USB UHCI Controller #2 (rev 01) 00:1d. non-prefetchable) [size=4K] 182 Referenz . Mit dem Parameter -d werden die Einzelwerte generiert.1 IDE interface: Intel Corporation 82801DB (ICH4) IDE \ Controller (rev 01) 00:1f.0 ISA bridge: Intel Corporation 82801DB/DBL (ICH4/ICH4-L) \ LPC Interface Bridge (rev 01) 00:1f.7 USB Controller: Intel Corporation 82801DB/DBM \ (ICH4/ICH4-M) USB2 EHCI Controller (rev 01) 00:1e.0 PCI bridge: Intel Corporation 82845G/GL[Brookdale-G]/GE/PE \ Host-to-AGP Bridge (rev 01) 00:1d.14 PCI-Ressourcen: lspci Der Befehl lspci listet die PCI-Ressourcen auf: linux:~ # lspci 00:00.. Der Parameter -nN aktualisiert die Informationen alle N Sekunden.2 USB Controller: Intel Corporation 82801DB/DBL/DBM \ (ICH4/ICH4-L/ICH4-M) USB UHCI Controller #3 (rev 01) 00:1d.0 Ethernet controller: Intel Corporation 82801DB PRO/100 VE (LOM) \ Ethernet Controller (rev 81) Mit der Option -v werden ausführlichere Informationen angezeigt: linux:~ # lspci [.0 Host bridge: Intel Corporation 82845G/GL[Brookdale-G]/GE/PE \ DRAM Controller/Host-Hub Interface (rev 01) 00:01..5 Multimedia audio controller: Intel Corporation 82801DB/DBL/DBM \ (ICH4/ICH4-L/ICH4-M) AC'97 Audio Controller (rev 01) 01:00.0 PCI bridge: Intel Corporation 82801 PCI Bridge (rev 81) 00:1f. latency 66.0 Ethernet controller: Intel Corporation 82801DB PRO/100 VE (LOM)\ Ethernet Controller (rev 81) Subsystem: Fujitsu Siemens Computer GmbH: Unknown device 1001 Flags: bus master. die sich in den letzten fünf Sekunden geändert haben: 6. IRQ 11 Memory at d1000000 (32-bit.0 VGA compatible controller: Matrox Graphics. wenn Sie alle Informationen sehen möchten. medium devsel. Standardmäßig werden die kumulativen Werte angezeigt.0 USB Controller: Intel Corporation 82801DB/DBL/DBM \ (ICH4/ICH4-L/ICH4-M) USB UHCI Controller #1 (rev 01) 00:1d. G400/G450 (rev 85) 02:08.

O_RDONLY) = 3 read(3.. ["ls"]. Der Parameter -vv generiert alle Informationen. .. 0) = 0xb7ef2000 close(3) = 0 open("/lib/librt. "bin Desktop Documents music\tM".. 512) \ = 512 fstat64(3. MAP_PRIVATE. R_OK) = -1 ENOENT (No such file or directory) open("/etc/ld.. st_rdev=makedev(136.}) = 0 mmap2(NULL. -1.] stat64(1. die in dieser Datei fehlen. werden als „Unknown device“ (Unbekanntes Gerät) markiert. {st_mode=S_IFCHR|0620. 0). .cache".}) = 0 brk(0) = 0x805c000 access("/etc/ld. node="linux".. PROT_READ... 6. PROT_READ|PROT_WRITE..so.. Geben Sie den Befehl wie üblich ein und fügen Sie am Zeilenanfang strace hinzu: tester@linux:~> strace ls execve("/bin/ls"..so.. O_RDONLY) = 3 fstat64(3.1". {st_mode=S_IFREG|0755. 4096. st_size=36659..so.15 Systemaufrufe eines aktiven Programms: strace Mit dem Dienstprogramm strace können Sie alle Systemaufrufe eines aktuell ausgeführten Prozesses verfolgen. 0) \ = 0xb7ca7000 write(1. [/* 61 vars */]) = 0 uname({sys="Linux"..}) = 0 mmap2(NULL. 89696. . 55bin Desktop Documents \ \ music Music public_html tmp ) = 55 close(1) = 0 munmap(0xb7ca7000.}) = 0 [.ids. geben Sie Folgendes ein: Dienstprogramme zur Systemüberwachung 183 . zu verfolgen. {st_mode=S_IFREG|0644. Die reinen numerischen Werte werden mit dem Parameter -n angezeigt. die vom Programm abgefragt werden können.preload". "\177ELF\1\1\1\0\0\0\0\0\0\0\0\0\3\0\3\0\1\0\0\0000\36\0". PCI-IDs. eine bestimmte Datei zu öffnen.... . 4096) = 0 exit_group(0) = ? Um beispielsweise alle Versuche. 3.I/O ports at 3000 [size=64] Capabilities: [dc] Power Management version 2 Die Informationen zur Auflösung der Gerätenamen stammen aus der Datei /usr/ share/pci. st_size=89696. MAP_PRIVATE|MAP_ANONYMOUS.

O_RDONLY) = open("/lib/libacl.1". Der Parameter -c gibt die Anzahl und die Dauer der erfolgten Bibliotheksaufrufe aus: tester@linux:~> ltrace -c find ~ % time seconds usecs/call calls -----. 6..6".so.1". O_RDONLY) = open("/lib/libattr.466754 27 16716 1.17 0. O_RDONLY) = [.] 0.230765 27 8358 [.37 6.18 0.so.--------34.so. Dieser Befehl wird auf ähnliche Weise wie strace verwendet.so.so. verwenden Sie den Parameter -f.bashrc open("/etc/ld.490392 144 17212 11.17 Erforderliche Bibliothek angeben: ldd Mit dem Befehl ldd können Sie ermitteln.so.53 6.tester@linux:~> strace -e open ls .231189 27 8531 1.----------.----------.662715 105717 function -------------------__errno_location __fprintf_chk strlen readdir64 __ctype_get_mb_cur_max strcpy memcpy textdomain -------------------total 6.758937 245 27554 33.00 19..67 2.00 0. Das Verhalten und das Ausgabeformat von strace können weitgehend gesteuert werden. Weitere Informationen erhalten Sie durch die Eingabe von man strace. O_RDONLY) = open("/lib/librt.353302 239 9845 2.----------.0".37 0. O_RDONLY) = open("/lib/libpthread.cache".1".593562 788 8358 12.000036 36 1 -----.--------100.] 3 3 3 3 3 3 Um alle untergeordneten Prozesse zu verfolgen.----------.97 2.. welche Bibliotheken die als Argument angegebene dynamische Programmdatei laden würde: 184 Referenz .16 Bibliotheksaufrufe eines aktiven Programms: ltrace Mit dem Befehl ltrace können Sie die Bibliotheksaufrufe eines Prozesses verfolgen.. O_RDONLY) = open("/lib/libc.

1 => /lib/libacl.1 => /lib/librt. for GNU/Linux 2. stripped 6.so.6. little endian Version: 1 (current) OS/ABI: UNIX .4.so.so. for GNU/Linux 2.6 => /lib/libc.System V ABI Version: 0 Type: EXEC (Executable file) Machine: Intel 80386 Version: 0x1 Entry point address: 0x8049b60 Start of program headers: 52 (bytes into file) Start of section headers: 81112 (bytes into file) Flags: 0x0 Size of this header: 52 (bytes) Size of program headers: 32 (bytes) Number of program headers: 9 Size of section headers: 40 (bytes) Number of section headers: 30 Section header string table index: 29 Dienstprogramme zur Systemüberwachung 185 .2 (0xb7fb6000) libattr.so.18 Zusätzliche Informationen zu ELF-Binärdateien Der Inhalt von Binärdateien kann mit dem Dienstprogramm readelf gelesen werden.6 (0xb7e79000) libpthread.so.6.so. version 1 (SYSV).1 (0xb7e63000) Statische Binärdateien benötigen keine dynamischen Bibliotheken: tester@linux:~> ldd /bin/sash not a dynamic executable tester@linux:~> file /bin/sash /bin/sash: ELF 32-bit LSB executable.0 (0xb7e67000) /lib/ld-linux. statically linked.1 (0xb7f97000) libacl.so. Dies funktioniert auch für ELF-Dateien. die für andere Hardware-Architekturen entwickelt wurden: tester@linux:~> readelf --file-header /bin/ls ELF Header: Magic: 7f 45 4c 46 01 01 01 00 00 00 00 00 00 00 00 00 Class: ELF32 Data: 2's complement.so.so.so. Intel 80386.tester@linux:~> ldd /bin/ls linux-gate.1 => /lib/libattr.4.so.so.1 (0xb7f91000) libc.1 => (0xffffe000) librt.0 => /lib/libpthread.

6. Dieses Dienstprogramm ist in zwei Versionen verfügbar: als Shell-Integration und als Programm (/usr/bin/time).19 Prozessübergreifende Kommunikation: ipcs Der Befehl ipcs generiert eine Liste der aktuell verwendeten IPC-Ressourcen: -----.Semaphore Arrays -------key semid owner perms 0x4d038abf 0 tester 600 -----.Message Queues -------key msqid owner bytes 393216 196608 43264 192000 282464 151552 nattch 2 2 2 2 2 2 status dest dest dest nsems 8 perms used-bytes messages 6.051s 0m0.Shared Memory Segments -------key shmid owner perms 0x00000000 58261504 tester 600 0x00000000 58294273 tester 600 0x00000000 83886083 tester 666 0x00000000 83951622 tester 666 0x00000000 83984391 tester 666 0x00000000 84738056 root 644 -----. > /dev/null real user sys 0m4.042s 0m0.20 Zeitmessung mit time Der Zeitaufwand von Befehlen lässt sich mit dem Dienstprogramm time ermitteln. tester@linux:~> time find .205s 186 Referenz .

Teil III. System .

.

wie diese Unterstützung auf SUSE Linux-64-Bit-Plattformen implementiert ist. dass alle enthaltenen Anwendungen bereits auf 64-Bit-Plattformen portiert wurden. wie 32-Bit-Anwendungen unter einem 64-Bit-Kernel ausgeführt werden können. Diese Unterstützung bedeutet. wie 32-Bit-Anwendungen ausgeführt werden (Laufzeitunterstützung) und wie 32-Bit-Anwendungen kompiliert werden sollten.als auch für 64-Bit-Umgebungen verfügbar ist. dass Sie weiterhin Ihre bevorzugten 32-BitAnwendungen verwenden können und nicht warten müssen. dass bestehende 32-Bit-Anwendungen sofort in der 64-Bit-Umgebung ausgeführt werden können. Entscheiden Sie sich in diesen Fällen für eine der beiden Versionen und installieren und verwenden Sie nur diese. 32-Bit. SUSE Linux für die 64-Bit-Plattformen AMD64 und EM64T ist so konzipiert. damit sie sowohl in 32-Bit. 7 7. bis ein entsprechender 64Bit-Port verfügbar ist. Außerdem finden Sie Informationen zur Kernel-API und es wird erläutert. Dieses Kapitel bietet einen kurzen Überblick darüber. Es wird erläutert. führt die parallele Installation beider Versionen zwangsläufig zu Problemen.als auch in 64-Bit-Systemanwendungen ausgeführt werden können.1 Laufzeitunterstützung WICHTIG: Konflikte zwischen Anwendungsversionen Wenn eine Anwendung sowohl für 32-Bit.und 64-Bit-Anwendungen in einer 64-Bit-Systemumgebung 189 . Das bedeutet jedoch nicht unbedingt.32-Bit. SUSE Linux unterstützt die Verwendung von 32-Bit-Anwendungen in einer 64-Bit-Systemumgebung.und 64-Bit-Anwendungen in einer 64-Bit-Systemumgebung SUSE Linux ist für verschiedene 64-Bit-Plattformen verfügbar.

/usr/ lib und /usr/X11R6/lib befinden.6.und 64-Bit-Bibliotheken müssen eine API (Anwendungsprogrammschnittstelle) aufweisen. Bei GCC lautet diese Flag -m32. Die installierten 32-Bit. /usr/lib und /usr/X11R6/ lib ist also Platz für die 32-Bit-Bibliotheken. die zu den installierten Header-Dateien passt. Bei manuell aktualisierten Bibliotheken müssen Sie diese Probleme selbst lösen. Sie müssen auf andere Weise voneinander unterschieden werden.2 Software-Entwicklung Eine Doppelarchitektur-Entwicklungswerkzeugkette (Biarch Development Toolchain) ermöglicht die Erstellung von 32-Bit. 190 Referenz .als auch in der 64-BitUmgebung unter /lib/libc.so. Standardmäßig werden 64Bit-Objekte kompiliert. deren Dateninhalt nicht von der Wortgröße abhängt.Für eine korrekte Ausführung benötigt jede Anwendung eine Reihe von Bibliotheken. werden die Bibliotheken am selben Ort im System gespeichert wie in der 32-Bit-Umgebung. die sich normalerweise unter /lib. Die 32-BitVersion von libc.und 64-Bit-Versionen dieser Bibliotheken identisch. Unter /lib.6 befindet sich sowohl in der 32-Bit. 32-Bit-Objekte können durch Verwendung spezieller Flags erstellt werden. Beispielsweise befinden sich die X11-Schriftarten noch immer am gewohnen Ort unter /usr/X11R6/lib/X11/fonts. Unterverzeichnisse der Objektverzeichnisse. Um die Kompatibilität mit der 32-Bit-Version aufrechtzuerhalten. Alle Header-Dateien müssen in architekturunabhängiger Form geschrieben werden. 7. werden nicht verschoben. Die normale SUSE-Umgebung wurde nach diesem Prinzip entworfen.und 64-Bit-Objekten. sodass der Dateiname für beide Versionen unverändert bleiben kann. Die 64-Bit-Objektdateien. /usr/X11R6/lib64 gespeichert. /usr/lib64 bzw. Das Schema entspricht LSB (Linux Standards Base) und FHS (File System Hierarchy Standard).so. Leider sind die Namen für die 32-Bit. werden nun unter /lib64. Alle 64-Bit-Bibliotheken und Objektdateien befinden sich in Verzeichnissen mit dem Namen lib64.

Das folgende Beispiel bezieht sich auf ein AMD64. EM64T-System mit x86 als zweiter Architektur: 1. 32-Bit-Objekte zu verarbeiten: LD="ld -m elf64_i386" 3. Legen Sie fest. überschreiben Sie die normalen Compiler. müssen die entsprechenden Bibliotheken für die zweite Architektur zusätzlich installiert werden. Legen Sie fest. Weisen Sie den Linker an. dass die Bibliotheken für libtool usw.3 Software-Kompilierung auf Doppelarchitektur-Plattformen Um bei einer Doppelarchitektur Binärdateien für die jeweils andere Architektur zu entwickeln. indem Sie das Skript configure mit zusätzlichen Umgebungsvariablen ausführen.und Linker-Einstellungen von autoconf. aus /usr/lib stammen sollen: LDFLAGS="-L/usr/lib" 5. Außerdem benötigen Sie die entsprechenden Header und Bibliotheken aus den rpmname-devel-Paketen und die Entwicklungsbibliotheken für die zweite Architektur aus rpmname-devel-32bit.7.bzw. Legen Sie autoconf für die Verwendung des 32-Bit-Compilers fest: CC="gcc -m32" 2. Legen Sie den Assembler für die Erstellung von 32-Bit-Objekten fest: AS="gcc -c -m32" 4.und 64-Bit-Anwendungen in einer 64-Bit-Systemumgebung 191 . dass die Bibliotheken im Unterverzeichnis lib gespeichert werden sollen: --libdir=/usr/lib 32-Bit. Um mit autoconf ein Programm für die zweite Architektur zu konfigurieren. Die meisten Open Source-Programme verwenden eine autoconf-basierte Programmkonfiguration. Diese Pakete heißen rpmname-32bit.

wie beispielsweise lspci oder die LVM-Verwaltungsprogramme. dass die 32-Bit-Anwendung mit dem 64-Bit-Kernel auf die gleiche Weise kommunizieren kann wie mit dem 32-BitKernel. Passen Sie sie an das entsprechende Programm an. dass die 32-Bit-X-Bibliotheken verwendet werden sollen: --x-libraries=/usr/X11R6/lib/ Nicht alle diese Variablen werden für jedes Programm benötigt. Das bedeutet. um sicherzustellen. dass die 64-Bit-Version des Kernel-ladbaren Moduls und die kompilierte 32-Bit-Version der Kernel-API für dieses Modul verfügbar sind. die von Systemprogrammen verwendet werden." \ .configure \ --prefix=/usr \ --libdir=/usr/lib64 make make install 7. damit sie ordnungsgemäß funktionieren. als 64-Bit-Programme kompiliert werden. 32-Bit-Kernel-Module können nicht verwendet werden. Legen Sie fest. wenden Sie sich an den Anbieter dieser Anwendung und an SUSE.als auch eine 32-Bit-Kernel-ABI (binäre Anwendungsschnittstelle). Dies hängt von der Plattform ab.6. CC="gcc -m64" \ LDFLAGS="-L/usr/lib64. Kernel-ladbare Module erforderlich. Letztere ist mit der ABI für den entsprechenden 32-Bit-Kernel identisch.4 Kernel-Spezifikationen Die 64-Bit-Kernes für AMD64 und EM64T bieten sowohl eine 64-Bit. Wenn Sie vorhaben. TIPP Für einige Anwendungen sind separate. Ein 64-Bit-Kernel kann nur 64-Bit-Kernel-Module laden. die speziell für diesen Kernel kompiliert wurden. eine solche 32-Bit-Anwendung in einer 64-Bit-Systemumgebung zu verwenden. 192 Referenz . Aus diesem Grund müssen einige wenige Anwendungen. Die 32-Bit-Emulation der Systemaufrufe für einen 64-Bit-Kernel unterstützt eine Reihe von APIs nicht.

1 Der Linux-Bootvorgang Der Linux-Bootvorgang besteht aus mehreren Phasen. Bis zu dieser Phase greift der Computer nicht auf Massenspeichergeräte zu. von denen jede einer anderen Komponente entspricht. Die vom Bootloader ausgegebenen Befehle bestimmen den verbleibenden Teil des Bootvorgangs. BIOS Nach dem Einschalten des Computers initialisiert das BIOS den Bildschirm und die Tastatur und testet den Arbeitsspeicher. übernimmt die Steuerung. Wenn die erste Festplatte und deren Geometrie erkannt wurden.Booten und Konfigurieren eines Linux-Systems Das Booten eines Linux-Systems umfasst mehrere unterschiedliche Komponenten. 8 8. Aus diesem Grund werden die ersten 512 Byte auf der ersten Festplatte als Master Boot Record (MBR) bezeichnet. Booten und Konfigurieren eines Linux-Systems 193 . Außerdem werden in diesem Kapitel das Konzept der Runlevel sowie die Systemkonfiguration von SUSE mit sysconfig vorgestellt. Bootloader Der erste physische 512 Byte große Datensektor der ersten Festplatte wird in den Arbeitsspeicher geladen und der Bootloader. der sich am Anfang dieses Sektors befindet. In der folgenden Liste werden der Bootvorgang und die daran beteiligten Komponenten kurz zusammengefasst. In diesem Kapitel werden die zu Grunde liegenden Prinzipien erläutert und die beteiligten Komponenten vorgestellt. zur aktuellen Uhrzeit und zu den wichtigsten Peripheriegeräten aus den CMOS-Werten geladen. geht die Systemsteuerung vom BIOS an den Bootloader über. Anschließend werden Informationen zum aktuellen Datum. Der Bootloader übergibt die Steuerung 2. 1.

abgesehen von ausreichend Arbeitsspeicher. „init on initramfs“ (S. 194 Referenz . wird das initramfs bereinigt und das init-Programm wird für das Root-Dateisystem ausgeführt. keine spezifischen HardwareAnforderungen. Der Inhalt des initramfs kann vom Kernel direkt verwendet werden.1.1. bevor das eigentliche Root-Dateisystem eingehängt wird. Der Bootloader (S.2. 197). Weitere Informationen zu udev finden Sie in Kapitel 12. Gerätemanagement über dynamischen Kernel mithilfe von udev (S. „initramfs“ (S. Weitere Informationen zu initramfs finden Sie in Abschnitt 8. B. Es stellt eine minimale Linux-Umgebung bereit. init Das init-Programm führt den eigentlichen Bootvorgang des Systems über mehrere unterschiedliche Ebenen aus und stellt dabei die unterschiedlichen Funktionalitäten zur Verfügung. 8.1 initramfs initramfs ist ein kleines cpio-Archiv. init on initramfs Dieses Programm führt alle für das Einhängen des entsprechenden Root-Dateisystems erforderlichen Aktionen aus. die das Ausführen von Programmen ermöglicht. Eine Beschreibung des init-Programms finden Sie in Abschnitt 8. 273). Kernel und „initramfs“ Um die Systemsteuerung zu übergeben. 3. Das initramfs enthält eine kleine Programmdatei namens „init“. die das Einhängen des eigentlichen Root-Dateisystems ausführt. dem Linux-Bootloader. Weitere Informationen zu GRUB.anschließend an das eigentliche Betriebssystem. in diesem Fall an den LinuxKernel. Diese minimale Linux-Umgebung wird von BIOS-Routinen in den Arbeitsspeicher geladen und hat. z. wird es auf Fehler geprüft und eingehängt.1. 195).und Gerätetreiber der Massenspeicher-Controller mit udev. 194). In früheren Versionen von SUSE Linux wurden diese Tasks von „initrd“ bzw. finden Sie in Kapitel 9. 5. das der Kernel auf einen RAM-Datenträger laden kann. initramfs muss immer eine Programmdatei namens „init“ zur Verfügung stellen. die das eigentliche init-Programm für das Root-Dateisystem ausführt. 211).1. damit der Bootvorgang fortgesetzt werden kann. Weitere Informationen zum init-Programm finden Sie in Abschnitt 8. lädt der Bootloader sowohl den Kernel als auch ein initiales RAM-basiertes Dateisystem (das initramfs) in den Arbeitsspeicher.2. das Bereitstellen der Kernel-Funktionalität für die erforderlichen Dateisystem. Wenn dieser Vorgang erfolgreich abgeschlossen wurde. „linuxrc“ durchgeführt. 4. „Der init-Vorgang“ (S. Nachdem das Root-Dateisystem gefunden wurde.

Durch das Aufrufen von mkinitrd ohne Argumente wird ein initramfs erstellt. Dies erfolgt auf dieselbe Weise wie die Aktualisierung des Vorgängers von initramfs. Je nach aktueller Systemkonfiguration ist init für die folgenden Tasks verantwortlich.2 init on initramfs Der Hauptzweck von init unter initramfs ist es. Diese Variable wird nach der Installation automatisch auf den richtigen Wert gesetzt. 8. GRUB nach der Aktualisierung von initramfs oder initrd neu zu installieren. Dadurch können alle während des Bootvorgangs generierten Gerätereignisse verarbeitet werden.1. Nachdem die Module geladen wurden. wenn mehrere SCSI-Treiber verwendet werden. Wenn in einem installierten System Hardwarekomponenten (Festplatten) ausgetauscht werden müssen und diese Hardware zur Boot-Zeit andere Treiber im Kernel erfordert. Durch das Aufrufen von mkinitrd -R wird ein initrd erstellt. stellt udev das initramfs mit den erforderlichen Geräten bereit. Booten und Konfigurieren eines Linux-Systems 195 . nur die für den Zugriff auf das Root-Dateisystem erforderlichen Treiber zu laden.Bevor das eigentliche Root-Dateisystem eingehängt und das Betriebssystem gestartet werden kann. auf dem sich das Root-Dateisystem befindet. da das Laden zu einem späteren Zeitpunkt problematisch sein könnte. initramfs steht während des gesamten Bootvorgangs zur Verfügung. Diese Treiber können spezielle Treiber für bestimmte Arten von Festplatten oder sogar Netzwerktreiber für den Zugriff auf ein Netzwerk-Dateisystem umfassen. Die erforderlichen Module für das Root-Dateisystem können mithilfe von init oder initramfs geladen werden. In SUSE Linux werden die zu ladenden Module durch die Variable INITRD_MODULES in /etc/ sysconfig/kernel angegeben. da GRUB beim Booten das Verzeichnis nach der richtigen Datei durchsucht. Dies ist besonders wichtig. Die Module werden genau in der Reihenfolge geladen. da andernfalls die Namen der Festplatten geändert würden. WICHTIG: Aktualisieren von initramfs oder initrd Der Bootloader lädt initramfs oder initrd auf dieselbe Weise wie den Kernel. initrd. Es werden jedoch alle für die Installation erforderlichen SCSI-Treiber mit initramfs oder initrd geladen. dass die entsprechenden Treiber auf das Gerät zugreifen. Es ist nicht erforderlich. das Einhängen des eigentlichen RootDateisystems sowie den Zugriff darauf vorzubereiten. nämlich durch den Aufruf von mkinitrd. ist es für den Kernel erforderlich. in der sie in INITRD_MODULES erscheinen. Genau genommen wäre es ausreichend. müssen Sie das initramfs aktualisieren.

richtet init LVM oder RAID so ein. Verwalten von Netzwerkkonfigurationen Wenn Ihr System für die Verwendung eines Netzwerk-eingehängten Root-Dateisystems (über NFS eingehängt) konfiguriert ist. 196 Referenz . das in einem RAM-Dateisystem ausgeführt wird. udev verarbeitet diese Ergebnisse und generiert die erforderlichen speziellen Dateien für das Gerät auf einem RAM-Dateisystem in /dev. 194) beschrieben. Ohne diese speziellen Dateien wäre ein Zugriff auf das Dateisystem nicht möglich. „LVM-Konfiguration“ (S. „Soft-RAID-Konfiguration“ (S. init startet einen anfänglichen Hardware-Scan-Vorgang. benötigt Daten über den aktuellen Speicherort des Installationsmediums. die für die meisten Hardwarekonfigurationen verwendet werden können. lädt Ihr Computer vom Installationsmedium einen Installations-Kernel und ein spezielles initrd mit dem YaST-Installationsprogramm. um auf dieses zugreifen und das Betriebssystem installieren zu können. Das YaST-Installationsprogramm. Verwalten von RAID. dass das Root-Dateisystem sich unter RAID oder LVM befindet. dass die entsprechenden Netzwerktreiber geladen und für den Zugriff auf das Root-Dateisystem eingerichtet werden. „initramfs“ (S. bei dem die für die Hardwarekonfiguration geeigneten Treiber ermittelt werden. Für den Zugriff auf das eigentliche Root-Dateisystem muss der Kernel die entsprechenden Dateisystemtreiber laden.1. dass der Zugriff auf das Root-Dateisystem zu einem späteren Zeitpunkt erfolgt.2.1. 65). Informationen zu LVM finden Sie in Abschnitt 2.und LVM-Setups Wenn Ihr System so konfiguriert ist.Laden der Kernel-Module Je nach Hardwarekonfiguration sind für den Zugriff auf die Hardwarekomponenten des Computers (vor allem auf die Festplatte) spezielle Treiber erforderlich.1. startet der Bootvorgang mit einem Mindestsatz an Treibern. 57). Wenn init im Rahmen des Installationsvorgangs während des anfänglichen Bootvorgangs aufgerufen wird. muss init sicherstellen. Informationen zu RAID finden Sie in Abschnitt 2. unterscheiden sich seine Tasks von den zuvor beschriebenen: Suchen des Installationsmediums Wenn Sie den Installationsvorgang starten. Initiieren der Hardware-Erkennung und Laden der entsprechenden Kernel-Module Wie unter Abschnitt 8. Bereitstellen spezieller Block-Dateien Für jedes geladene Modul generiert der Kernel Geräteergebnisse.

Laden des Installations.2. Während des Installationsvorgangs lädt init die entsprechenden Modulsätze. „Runlevel“ (S. Diese Datei legt auch fest. „Init-Skripts“ (S. Starten von YaST init startet schließlich YaST. das das eigentliche YaST-Installationsprogramm bzw. das Rettungssystem enthält. in der auch die Runlevel definiert werden (siehe Abschnitt 8. Hierbei nimmt init eine besondere Rolle ein. Je nach den Einträgen in /etc/inittab werden von init mehrere Skripts ausgeführt.Diese Werte werden später in INITRD_MODULES in /etc/sysconfig/ kernel geschrieben. Von diesem Gesichtspunkt aus kann der Kernel als Hintergrundprozess betrachtet werden. startet init das Installationssystem. wenn das Gerät während des Bootvorgangs nicht benötigt wird. dessen Aufgabe es ist. um allen weiteren Bootvorgängen die Verwedung eines benutzerdefinierten initrd zu ermöglichen.1.d (siehe Abschnitt 8.2. welche Dienste und Daemons in den einzelnen Levels verfügbar sind. Alle anderen Programme werden entweder direkt von init oder von einem seiner untergeordneten Prozesse gestartet. Booten und Konfigurieren eines Linux-Systems 197 . init wird zentral in der Datei /etc/inittab konfiguriert. die der Deutlichkeit halber als init-Skripts bezeichnet werden. 198)). befinden sich alle im Verzeichnis /etc/init.2 Der init-Vorgang Das Programm init ist der Prozess mit der Prozess-ID 1.oder Rettungssystems Sobald die Hardware erfolgreich erkannt und die entsprechenden Treiber geladen wurden und udev die speziellen Gerätedateien erstellt hat. das in der Regel Prozesse beendet. bzw. das wiederum die Paketinstallation und die Systemkonfiguration startet. 8. in eine Datei namens /etc/ sysconfig/hardware/hwconfig-*.2. 200)). Es wird direkt vom Kernel gestartet und widersteht dem Signal 9. alle anderen Prozesse zu verwalten und die CPU-Zeit sowie den Hardwarezugriff entsprechend den Anforderungen anderer Programme anzupassen. Es ist für die ordnungsgemäße Initialisierung des Systems verantwortlich. Diese Skripts. Der gesamte Vorgang des Startens und Herunterfahrens des Systems wird von init verwaltet.

Alternativ kann der Runlevel auch zur Boot-Zeit (beispielsweise an der Eingabeaufforderung) angegeben werden. Dies ist in der Regel die Einstellung 3 oder 5. wie das System gestartet wird und welche Dienste im laufenden System verfügbar sind. werden an init übergeben. 198).1. „Verfügbare Runlevel“ (S. Nach dem Booten startet das System wie in /etc/ inittab in der Zeile initdefault definiert. GDM oder XDM Systemneustart 1 2 3 4 5 6 198 Referenz . nur mit der amerikanischen Tastaturbelegung verfügbar Einzelbenutzer-Modus Lokaler Mehrbenutzer-Modus mit entferntem Netzwerk (NFS usw.8. Alle Parameter.KDM.2.1 Runlevel 0 S Verfügbare Runlevel Beschreibung Systemstopp Einzelbenutzer-Modus.1 Runlevel Unter Linux definieren Runlevel. die nicht direkt vom Kernel ausgewertet werden können. über die Boot-Eingabeaufforderung.) Mehrbenutzer-Vollmodus mit Netzwerk Nicht verwendet Mehrbenutzer-Vollmodus mit Netzwerk und X-Display-Manager . Tabelle 8. Siehe Tabelle 8.

Wenn Autologin aktiviert ist. Um die Runlevel während des laufenden Systembetriebs zu ändern. wie XDM. wenn Programmdateien oder Bibliotheken fehlen. 293) beschrieben konfiguriert werden. Wenn 3 der standardmäßige Runlevel ist. oder der Standardbenutzer wird automatisch angemeldet. Dieser Modus wird für die Systemwartung und administrative Aufgaben verwendet. telinit 5 Die grafische Umgebung wird aktiviert. In der folgenden Liste sind die wichtigsten Befehle im RunlevelBereich aufgeführt. Runlevel 5 ist der standardmäßige Runlevel bei allen SUSE Linux-Standardinstallationen. da der NFS-Dienst in Runlevel 2 nicht zur Verfügung steht (lokaler Mehrbenutzer-Modus ohne entferntes Netzwerk). GDM oder KDM. muss das X Window System wie unter Kapitel 14. telinit 1 oder shutdown now Das System wechselt in den Einzelbenutzer-Modus. Das System zeigt möglicherweise unerwartetes Verhalten. sich mit einer grafischen Oberfläche anzumelden. wenn Ihr System eine Partition. geben Sie telinit und die entsprechende Zahl als Argument ein. Das X Window-System (S. gestartet. wie /usr. Die Benutzer werden aufgefordert.WICHTIG: Runlevel 2 mit einer über NFS eingehängten Partition ist zu vermeiden Sie sollten Runlevel 2 nicht verwenden. KDE oder einem anderem Fenster-Manager) angemeldet. bevor der Runlevel auf 5 geändert werden Booten und Konfigurieren eines Linux-Systems 199 . Dies darf nur von Systemadministratoren ausgeführt werden. wird der lokale Benutzer beim vorausgewählten Fenster-Manager (GNOME. telinit 0 oder shutdown -h now Das System wird gestoppt. telinit 3 Alle wichtigen Programme und Dienste (einschließlich Netzwerkprogramme und -dienste) werden gestartet und reguläre Benutzer können sich anmelden und mit dem System ohne grafische Umgebung arbeiten. Normalerweise wird ein Display-Manager. telinit 6 oder shutdown -r now Das System wird gestoppt und anschließend neu gestartet. über NFS einhängt.

die sich in /etc/init. Die Zahl nach K gibt die Reihenfolge für den Start an. Anschließend werden die Start-Skripts des neuen Runlevel gestartet.d/rc mit dem neuen Runlevel als Parameter starten soll. Dieselbe Funktion kann durch den Befehl telinit q erreicht werden.2 Init-Skripts Im Verzeichnis /etc/init. 3. In diesem Beispiel befinden sie sich im Verzeichnis /etc/init. ob das System wie gewünscht funktioniert. Jetzt ruft rc alle Stopp-Skripts des aktuellen Runlevel auf. 2. Zunächst werden StoppSkripts des aktuellen Runlevel gestartet.d/rc3. Wenn alles ordnungsgemäß funktioniert. für die es im neuen Runlevel keine Start-Skripts gibt.d/rc5. Die Start-Skripts des neuen Runlevel werden zuletzt gestartet. jedoch nur die. Bei dem Wechsel in denselben Runlevel wie der aktuelle Runlevel prüft init nur /etc/ inittab auf Änderungen und startet die entsprechenden Schritte. Beim Ändern der Runlevel geschehen in der Regel zwei Dinge. dass es /etc/init.d gibt es zwei Skripttypen: 200 Referenz . 4. Hier wird dasselbe Verfahren hinsichtlich der Startreihenfolge angewendet. Prüfen Sie anschließend. indem Sie telinit 5 eingeben. da einige Abhängigkeiten zu berücksichtigen sind. In diesem Beispiel sind dies alle Skripts. z.2. zu einem anderen Runlevel zu wechseln. können Sie mithilfe von YaST den standardmäßigen Runlevel auf 5 setzen. Der Administrator (root) fordert init durch die Eingabe des Befehls telinit 5 auf. für das Starten von getty auf einer anderen Schnittstelle.d und beginnen mit einem S.d (alter Runlevel war 3) befinden und mit einem K beginnen. die einige der für den aktuellen Runlevel wichtigen Programme schließen. init prüft seine Konfigurationsdatei (/etc/inittab) und stellt fest. B. Beim Wechsel von Runlevel 3 zu 5 wird beispielsweise Folgendes ausgeführt: 1. 8. Dabei werden in den meisten Fällen mehrere Programme gestartet.kann.

wird er gestoppt und anschließend neu gestartet. Skripts. Sie werden unabhängig vom Runlevel bei Bedarf ausgeführt. Skripts zum Ändern des Runlevel werden jedoch über symbolische Links aus einem der Unterverzeichnisse (/etc/init. die direkt von init ausgeführt werden Dies ist nur während des Bootvorgangs der Fall oder wenn das sofortige Herunterfahren des Systems initiiert wird (Stromausfall oder ein Benutzer drückt Strg + Alt + Entf ). Die Ausführung dieser Skripts ist in /etc/inittab definiert. wenn diese in unterschiedlichen Runleveln verwendet werden. Diese unterschiedlichen Optionen werden in Tabelle 8. Sämtliche Skripts befinden sich im Verzeichnis /etc/init. Tabelle 8. werden über symbolische Links aus /etc/init.d aufgerufen. 201) erläutert.d/ boot.d/rc6.d bis /etc/init . „Mögliche init-Skript-Optionen“ (S.d/rc0.d. Dies dient lediglich der Übersichtlichkeit und der Vermeidung doppelter Skripts.Skripts. reload Booten und Konfigurieren eines Linux-Systems 201 .d) aufgerufen. Wenn der Dienst läuft. reload. force-reload und status.als auch als Stopp-Skript ausgeführt werden kann. die während des Bootens ausgeführt werden. Stoppt den Dienst. Die von init direkt ausgeführten Skripts verfügen nicht über diese Links. Die Konfiguration wird ohne Stoppen und Neustarten des Dienstes neu geladen.d/rc auf. Da jedes Skript sowohl als Start.2 Option start stop restart Mögliche init-Skript-Optionen Beschreibung Startet den Dienst. Wenn der Dienst nicht läuft. Skripts. müssen diese Skripts die Parameter start und stop verstehen. Die Skripts erkennen außerdem die Optionen restart. die indirekt von init ausgeführt werden Diese werden beim Wechsel des Runlevel ausgeführt und rufen immer das MasterSkript /etc/init. wird er gestartet.2. das die richtige Reihenfolge der relevanten Skripts gewährleistet.

abgeschlossen sind. Zeigt den aktuellen Status des Dienstes an. das dieses Programm aufruft). blogd schreibt alle auf dem Bildschirm ausgegebenen Informationen in die Protokolldatei /var/log/boot. Weitere Informationen zu blogd erhalten Sie auf der Manualpage „blogd(8)“. Es wird unabhängig vom gewählten Runlevel und nur einmalig ausgeführt. B. Außerdem wird die Systemzeit festgelegt. wenn das System direkt mit init gestartet wird. Das Skript boot ist zudem für das Starten aller Skripts in /etc/init. ein Skript. Andernfalls puffert blogd alle Bildschirmdaten. Er wird gestoppt.und Schreibrechten eingehängt wurde. Andernfalls erfolgt dieselbe Aktion wie bei dem Befehl restart. Im Folgenden finden Sie eine kurze Einführung in die zuerst bzw. wenn /var mit Lese. wird die anfängliche Systemkonfiguration gestartet.Option force-reload Beschreibung Die Konfiguration wird neu geladen. Wenn das System nach einer Aktualisierung oder einer Installation das erste Mal gebootet wird.msg. wenn alle Aktionen. aber nur dann. das Ausführen einer bestimmten Anzahl von Subskripts). Dabei werden die Dateisysteme proc und pts eingehängt und blogd (Boot Logging Daemon) wird aktiviert. Wenn bei der automatischen Prüfung und Reparatur des Dateisystems 202 Referenz . Bei der Installation oder Deinstallation von Paketen werden diese Links mithilfe des Programms „insserv“ hinzugefügt oder entfernt (oder mithilfe von /usr/lib/lsb/install_initd. der von boot und rc vor allen anderen Diensten gestartet wird. Dort werden die Dateisysteme überprüft und bei Bedarf Loop-Devices konfiguriert. status Mithilfe von Links in den einzelnen Runlevel-spezifischen Unterverzeichnissen können Skripts mit unterschiedlichen Runleveln verknüpft werden. Der blogd-Daemon ist ein Dienst. bis /var zur Verfügung steht. Weitere Informationen hierzu finden Sie auf der Manualpage „insserv(8)“. boot wird ausgeführt. zuletzt gestarteten Boot. die durch die oben beschriebenen Skripts ausgelöst wurden (z.und Stopp-Skripts sowie eine Erläuterung des Steuerskripts. deren Name mit S beginnt.d/boot .d verantwortlich. sofern der Dienst dies unterstützt.

d und insserv.2. hängt davon ab. WARNUNG: Fehlerhafte init-Skripts können das System stoppen Bei fehlerhaften init-Skripts kann es dazu kommen.setup Dieses Skript wird bei einem Wechsel vom Einzelbenutzer-Modus in einen anderen Runlevel ausgeführt. „Runlevel“ (S. kann der Systemadministrator nach Eingabe des Root-Passworts eingreifen. halt Dieses Skript wird nur beim Wechsel zu Runlevel 0 oder 6 ausgeführt. weitere Details.BAT in DOS-Systemen vergleichbar. B. Zuletzt wird das Skript boot. init. gründlich in der Mehrbenutzer-Umgebung getestet werden. Sie können Booten und Konfigurieren eines Linux-Systems 203 . die Tastaturbelegung und die Initialisierung der virtuellen Konsolen.local Hier können Sie zusätzliche Befehle eingeben. boot. wie halt aufgerufen wird.und Dateinamen.local ausgeführt.d/skeleton als Schablone verwenden. Sie können Ihre eigenen Skripts erstellen und diese problemlos in das oben beschriebene Schema integrieren. Sie erstellen ein benutzerdefiniertes init-Skript für ein bestimmtes Programm oder einen Dienst. boot. Einige hilfreiche Informationen zu init-Skripts finden Sie in Abschnitt 8.1. Pfade und ggf. Diese Skripts sollten mit großer Vorsicht bearbeitet werden und. indem Sie die Datei /etc/init. bevor Sie zu einem Runlevel wechseln. 198). die beim Booten ausgeführt werden sollen. Speichern Sie eine Kopie dieser Datei unter dem neuen Namen und bearbeiten Sie die relevanten Programm. wenn möglich. Es ist verantwortlich für eine Reihe grundlegender Einstellungen. Dieses Skript ist mit der AUTOEXEC . z. Ob das System heruntergefahren oder neu gebootet wird.ein Fehler auftritt. Benennen und Organisieren benutzerdefinierter Skripts finden Sie in den Spezifikationen von LSB und auf den Manualpages von init. dass der Computer hängt. rc Dieses Skript ruft die entsprechenden Stopp-Skripts des aktuellen Runlevel und die Start-Skripts des neu gewählten Runlevel auf. Weitere Informationen finden Sie zudem auf den Manualpages zu startproc und killproc. Es wird entweder als halt oder als reboot ausgeführt. Anweisungen zum Formatieren.

d/ bereits vorhandenes Skript in das vorhandene RunlevelSchema integriert werden soll. Geben Sie für Description: schließlich eine kurze Beschreibung des betreffenden Dienstes ein.1 Ein minimaler INIT INFO-Block ### BEGIN INIT INFO # Provides: # Required-Start: # Required-Stop: # Default-Start: # Default-Stop: # Description: ### END INIT INFO FOO $syslog $remote_fs $syslog $remote_fs 3 5 0 1 2 6 Start FOO to allow XY and provide YZ Geben Sie in der ersten Zeile des INFO-Blocks nach Provides: den Namen des Programms oder des Dienstes an.2. Wenn ein in /etc/init. 204). die in den Runlevel-Verzeichnissen enthalten sind. 205) beschrieben. „Ein minimaler INIT INFO-Block“ (S. der mit diesem Skript gesteuert werden soll. erstellen Sie die Links in den Runlevel-Verzeichnissen direkt mit insserv oder indem Sie den entsprechenden Dienst im Runlevel-Editor von YaST aktivieren.1.d/rc?.3.das Skript auch mit eigenen Ergänzungen erweitern. verwenden Sie den von YaST zur Verfügung gestellten Runlevel-Editor wie in Abschnitt 8. Geben Sie nach Default-Start: und Default-Stop: die Runlevel an.d/) zu erstellen. Das Programm „insserv“ wertet den INIT INFO-Header aus. Geben Sie in den Zeilen Required-Start: und Required-Stop: alle Dienste an. um die erforderlichen Links für die Start.d/) die Links auf die entsprechenden Skripts in /etc/init. die gestartet oder gestoppt werden müssen. Der Block INIT INFO oben ist ein erforderlicher Teil des Skripts und muss bearbeitet werden. sodass die richtigen Aktionen vom init-Prozess ausgelöst werden. indem es die erforderlichen Nummern in die Namen dieser Links aufnimmt. 204 Referenz . Diese Informationen werden später zum Generieren der Nummerierung der Skriptnamen verwendet. bevor der Dienst selbst gestartet oder gestoppt wird. Wenn Sie zum Erstellen der Links ein grafisches Werkzeug bevorzugen. Um in den Runlevel-Verzeichnissen (/etc/init.und Stopp-Skripts in den Runlevel-Verzeichnissen (/etc/init. geben Sie den Befehl insserv neuer skriptname ein. „Konfigurieren von Systemdiensten (Runlevel) mit YaST“ (S. Siehe Beispiel 8. in denen der Dienst gestartet oder gestoppt werden soll. Beispiel 8. Ihre Änderungen werden beim nächsten Neustart wirksam und der neue Dienst wird automatisch gestartet. das bzw. Das Programm sorgt zudem für die richtige Start.und Stopp-Reihenfolge für die einzelnen Runlevel.d/rc?.d/ zu erstellen.

Um einen Dienst zu aktivieren. Der vorgegebene einfache Modus sollte für die meisten Zwecke ausreichend sein. wenn insserv zu einem späteren Zeitpunkt für einen anderen Dienst ausgeführt wird.3 Konfigurieren von Systemdiensten (Runlevel) mit YaST Nach dem Starten dieses YaST-Moduls mit YaST → System → Systemdienste (Runlevel) werden ein Überblick über alle verfügbaren Dienste sowie der aktuelle Status der einzelnen Dienste (deaktiviert oder aktiviert) angezeigt. um einen Dienst zu deaktivieren.2. Der untere Teil des Fensters enthält eine ausführlichere Beschreibung des ausgewählten Dienstes. wählen Sie ihn in der Tabelle aus und klicken Sie anschließend auf Aktivieren. ob das Modul im einfachen Modus oder im Expertenmodus ausgeführt werden soll. Der manuell hinzugefügte Dienst wird bei der nächsten Ausführung von insserv entfernt. in der mittleren Spalte sein aktueller Status und in der rechten Spalte eine kurze Beschreibung angezeigt. Abbildung 8. Wenn der INFO-Block Fehler enthält.1 Systemdienste (Runlevel) Booten und Konfigurieren eines Linux-Systems 205 . 8. Legen Sie fest. treten Probleme auf. In der linken Spalte wird der Name des Dienstes. Führen Sie die gleichen Schritte aus.Diese Links dürfen nicht manuell festgelegt werden.

Zudem können Sie mithilfe der Tabelle in diesem Fenster einzelne Dienste und Daemons aktivieren oder deaktivieren. Der standardmäßige Runlevel eines SUSE Linux-Systems ist in der Regel Runlevel 5 (Mehrbenutzer-Vollmodus mit Netzwerk und X). Stellen Sie vor dem Anwenden der Änderungen sicher. Runlevel 4 ist anfänglich nicht definiert. Mit Beenden speichern Sie die geänderten Einstellungen. 5. Status aktualisieren prüft den aktuellen Status. oder ob die ursprünglichen Einstellungen wiederhergestellt werden sollen. Legen Sie mit den Optionen „Start“. um das Erstellen eines benutzerdefinierten Runlevel zu ermöglichen. die die Runlevel (B. in den das System standardmäßig bootet) wird oben angezeigt. die vor dem Starten des Runlevel-Editors wirksam waren. ob ein Dienst aktiviert werden soll. 0. 206 Referenz . In dieser Tabelle sind die verfügbaren Dienste und Daemons aufgelistet und es wird angezeigt. In diesem YaST-Dialogfeld können Sie einen Runlevel (wie unter Tabelle 8. 6 und S) darstellen. „Anhalten“ oder „Aktualisieren“ fest. Nachdem Sie mit der Maus eine der Zeilen ausgewählt haben. Eine geeignete Alternative kann Runlevel 3 sein (Mehrbenutzer-Vollmodus mit Netzwerk). Mit „Anwenden“ oder „Zurücksetzen“ können Sie wählen. ob die Änderungen für das System angewendet werden sollen. dass Sie deren Auswirkungen kennen. WARNUNG: Fehlerhafte Runlevel-Einstellungen können das System beschädigen Fehlerhafte Runlevel-Einstellungen können ein System unbrauchbar machen. 2.1. in denen ein Dienst gestartet oder gestoppt bzw.Die detaillierte Steuerung der Runlevel. in denen der ausgewählte Dienst oder Daemon ausgeführt werden sollte. um die Runlevel festzulegen. für welche Runlevel. Der aktuell vorgegebene Runlevel oder „initdefault“ (der Runlevel. die Änderung des vorgegebenen Runlevel erfolgt im Expertenmodus. 198) aufgeführt) als neuen Standard wählen. klicken Sie auf die Kontrollkästchen. Unterhalb der Tabelle wird eine kurze Beschreibung des aktuell ausgewählten Dienstes oder Daemons angezeigt. 3. 1. ob sie aktuell auf dem System aktiviert sind und wenn ja. „Verfügbare Runlevel“ (S.

dass Netzwerkeinstellungen beispielsweise nur von netzwerkbezogenen Skripts analysiert werden. Die einzelnen Dateien in /etc/sysconfig werden nur von den Skripts gelesen. Viele andere Systemkonfigurationsdateien werden gemäß den Einstellungen in /etc/ sysconfig generiert. da sie eine der für die Netzwerkonfiguration relevanten Dateien ist. können Sie mithilfe der integrierten Suchfunktion dieses Moduls den Wert der Konfigurationsvariable wie erforderlich ändern. Dadurch wird gewährleistet.1 Ändern der Systemkonfiguration mithilfe des YaST-Editors „sysconfig“ Der YaST-Editor „sysconfig“ bietet ein benutzerfreundliches Frontend für die Systemkonfiguration. ohne das System neu booten zu müssen.3 Systemkonfiguration über /etc/sysconfig Die Hauptkonfiguration von SUSE Linux wird über die Konfigurationsdateien in /etc/ sysconfig gesteuert. aktualisiert die Konfigurationen. der erklärt. Booten und Konfigurieren eines Linux-Systems 207 . Die Dateien in /etc/sysconfig enthalten einen kurzen Kommentar zu den einzelnen Variablen. wenn Sie über ausreichende Sachkenntnisse verfügen. die Systemkonfiguration zu bearbeiten. WARNUNG: Das Ändern von /etc/sysconfig/*-Dateien kann die Installation beschädigen Sie sollten die Dateien /etc/sysconfig-Dateien nur bearbeiten. Entweder verwenden Sie den YaST-Editor „sysconfig“ oder Sie bearbeiten die Konfigurationsdateien manuell. YaST wendet diese Änderungen an. Wenn Sie beispielsweise die Netzwerkkonfiguration ändern. 8. nimmt SuSEconfig ggf. auch Änderungen an der Datei /etc/host. die von den Werten in sysconfig abhängig sind. Das unsachgemäße Bearbeiten dieser Dateien kann zu schwerwiegenden Fehlern des Systems führen. für die sie relevant sind. Sie haben zwei Möglichkeiten. welche Auswirkungen diese tatsächlich haben.conf vor. Ohne den eigentlichen Speicherort der zu ändernden Konfigurationsvariablen zu kennen.3. und startet die Dienste neu.8. Diese Task wird von SuSEconfig ausgeführt. Mithilfe dieses Konzepts können Sie allgemeine Änderungen an der Konfiguration vornehmen.

Abbildung 8.2 Systemkonfiguration mithilfe des sysconfig-Editors

Das YaST-Dialogfeld „sysconfig“ besteht aus drei Teilen. Auf der linken Seite des Dialogfelds wird eine Baumstruktur aller konfigurierbaren Variablen angezeigt. Wenn Sie eine Variable auswählen, werden auf der rechten Seite sowohl die aktuelle Auswahl als auch die aktuelle Einstellung dieser Variable angezeigt. Unten werden in einem dritten Fenster eine kurze Beschreibung des Zwecks der Variable, mögliche Werte, der Standardwert und die Konfigurationsdatei angezeigt, aus der diese Variable stammt. In diesem Dialogfeld werden zudem Informationen darüber zur Verfügung gestellt, welche Konfigurationsskripts nach dem Ändern der Variable ausgeführt und welche neuen Dienste als Folge dieser Änderung gestartet werden. YaST fordert Sie zur Bestätigung der Änderungen auf und zeigt an, welche Skripts ausgeführt werden, wenn Sie Beenden wählen. Außerdem können Sie die Dienste und Skripts auswählen, die jetzt übersprungen und zu einem späteren Zeitpunkt gestartet werden sollen. YaST wendet alle Änderungen automatisch an und startet alle von den Änderungen betroffenen Dienste neu, damit die Änderungen wirksam werden.

8.3.2 Manuelles Ändern der Systemkonfiguration
Gehen Sie wie folgt vor, um die Systemkonfiguration manuell zu ändern:

208

Referenz

1 Melden Sie sich als root an. 2 Wechseln Sie mit init 1 in den Einzelbenutzer-Modus (Runlevel 1). 3 Nehmen Sie die erforderlichen Änderungen an den Konfigurationsdateien in einem Editor Ihrer Wahl vor. Wenn Sie die Konfigurationsdateien in /etc/sysconfig nicht mit YaST ändern, müssen Sie sicherstellen, dass leere Variablenwerte durch zwei Anführungszeichen (KEYTABLE="") gekennzeichnet sind und Werte, die Leerzeichen enthalten, in Anführungszeichen gesetzt werden. Werte, die nur aus einem Wort bestehen, müssen nicht in Anführungszeichen gesetzt werden. 4 Führen Sie SuSEconfig aus, um sicherzustellen, dass die Änderungen wirksam werden. 5 Mit einem Befehl wie init default_runlevel stellen Sie den vorherigen Runlevel des Systems wieder her. Ersetzen Sie default_runlevel durch den vorgegebenen Runlevel des Systems. Wählen Sie 5, wenn Sie in den Mehrbenutzer-Vollmodus mit Netzwerk und X zurückkehren möchten, oder wählen Sie 3, wenn Sie lieber im Mehrbenutzer-Vollmodus mit Netzwerk arbeiten möchten. Dieses Verfahren ist hauptsächlich beim Ändern von systemweiten Einstellungen, z. B. der Netzwerkkonfiguration, relevant. Für kleinere Änderungen ist der Wechsel in den Einzelbenutzer-Modus nicht erforderlich. In diesem Modus können Sie jedoch sicherstellen, dass alle von den Änderungen betroffenen Programme ordnungsgemäß neu gestartet werden. TIPP: Konfigurieren der automatisierten Systemkonfiguration Um die automatisierte Systemkonfiguration von SuSEconfig zu deaktivieren, setzen Sie die Variable ENABLE_SUSECONFIG in /etc/sysconfig/ suseconfig auf no. Wenn Sie den SUSE-Support für die Installation nutzen möchten, darf SuSEconfig nicht deaktiviert werden. Es ist auch möglich, die automatisierte Konfiguration teilweise zu deaktivieren.

Booten und Konfigurieren eines Linux-Systems

209

Der Bootloader
In diesem Kapitel wird die Konfiguration von GRUB, dem unter SUSE Linux verwendeten Bootloader, beschrieben. Zum Vornehmen der Einstellungen steht ein spezielles YaST-Modul zur Verfügung. Wenn Sie mit dem Bootvorgang unter Linux nicht vertraut sind, lesen Sie die folgenden Abschnitte, um einige Hintergrundinformationen zu erhalten. In diesem Kapitel werden zudem einige der Probleme, die beim Booten mit GRUB auftreten können, sowie deren Lösungen beschrieben. Dieses Kapitel konzentriert sich auf das Bootmanagement und die Konfiguration des Bootloaders GRUB. Eine Übersicht über den Bootvorgang finden Sie in Kapitel 8, Booten und Konfigurieren eines Linux-Systems (S. 193). Ein Bootloader stellt die Schnittstelle zwischen Computer (BIOS) und dem Betriebssystem (SUSE Linux) dar. Die Konfiguration des Bootloaders wirkt sich direkt auf das Starten des Betriebssystems aus. In diesem Kapitel werden folgende Begriffe regelmäßig verwendet und werden daher ausführlicher beschrieben: Master Boot Record Die Struktur des MBR ist durch eine vom Betriebssystem unabhängige Konvention festgelegt. Die ersten 446 Byte sind für Programmcode reserviert. Sie enthalten in der Regel das Bootloader-Programm, in diesem Fall GRUB Stufe 1. Die nächsten 64 Byte bieten Platz für eine Partitionstabelle mit bis zu vier Einträgen (siehe „Partitionstypen“ (Kapitel 1, Installation mit YaST, ↑Start)). Die Partitionstabelle enthält Informationen zur Partitionierung der Festplatte und zum Dateisystemtyp. Das Betriebssystem benötigt diese Tabelle für die Verwaltung der Festplatte. Bei GRUB Stufe 1 im MBR muss genau eine Partition als aktiv markiert sein. Die

9

Der Bootloader

211

letzten zwei Byte müssen eine statische „magische Zahl“ (AA55) enthalten. Ein MBR mit einem anderen Wert wird vom BIOS als ungültig betrachtet. Bootsektoren Bootsektoren sind die jeweils ersten Sektoren der Festplattenpartitionen, außer bei der erweiterten Partition, die nur ein „Container“ für andere Partitionen ist. Diese Bootsektoren reservieren 512 Byte Speicherplatz für Code, der ein auf dieser Partition befindliches Betriebssystem starten kann. Dies gilt für Bootsektoren formatierter DOS-, Windows- oder OS/2-Partitionen, die zusätzlich noch wichtige Basisdaten des Dateisystems enthalten. Im Gegensatz dazu sind Bootsektoren von Linux-Partitionen nach der Einrichtung eines Dateisystems anfänglich leer (mit Ausnahme des Dateisystems XFS). Eine Linux-Partition ist daher nicht durch sich selbst bootfähig, auch wenn sie einen Kernel und ein gültiges root-Dateisystem enthält. Ein Bootsektor mit gültigem Code für den Systemstart trägt in den letzten 2 Byte dieselbe „magische“ Zahl wie der MBR (AA55).

9.1 Auswählen eines Bootloaders
In SUSE Linux wird standardmäßig der Bootloader GRUB verwendet. In einigen Fällen und für bestimmte Hardware- und Softwarekonstellationen ist jedoch möglicherweise LILO erforderlich. Wenn Sie ein Update einer älteren SUSE Linux-Version durchführen, die LILO benutzte, wird auch wieder LILO installiert. Informationen zur Installation und Konfiguration von LILO finden Sie in der Supportdatenbank unter dem Schlüsselwort LILO und in /usr/share/doc/packages/ lilo.

9.2 Booten mit GRUB
GRUB (Grand Unified Bootloader) besteht aus zwei Stufen. Stufe 1 (stage1) besteht aus 512 Byte und erfüllt lediglich die Aufgabe, die zweite Stufe des Bootloaders zu laden. Anschließend wird Stufe 2 (stage2) geladen. Diese Stufe enthält den Hauptteil des Bootloaders. In einigen Konfigurationen gibt es eine zusätzliche Zwischenstufe 1.5, die Stufe 2 von einem geeigneten Dateisystem lokalisiert und lädt. Wenn diese Methode zur Verfügung

212

Referenz

steht, wird sie bei der Installation oder bei der anfänglichen Einrichtung von GRUB mit YaST standardmäßig gewählt. stage2 kann auf zahlreiche Dateisysteme zugreifen. Derzeit werden Ext2, Ext3, ReiserFS, Minix und das von Windows verwendete DOS FAT-Dateisystem unterstützt. Bis zu einem gewissen Grad werden auch die von BSD-Systemen verwendeten JFS, XFS, UFS und FFS unterstützt. Seit Version 0.95 kann GRUB auch von einer CD oder DVD booten, die das ISO 9660-Standarddateisystem nach der „El Torito“-Spezifikation enthält. GRUB kann noch vor dem Booten auf Dateisysteme unterstützter BIOS-DiskDevices (vom BIOS erkannte Disketten, Festplatten, CD- oder DVD-Laufwerke) zugreifen. Daher erfordern Änderungen an der GRUB-Konfigurationsdatei (menu .lst) keine Neuinstallation des Boot-Managers mehr. Beim Booten des Systems liest GRUB die Menüdatei samt der aktuellen Pfade und Partitionsdaten zur Kernel oder zur Initial RAM-Disk (initrd) neu ein und findet diese Dateien selbständig. Die eigentliche Konfiguration von GRUB basiert auf den im Folgenden beschriebenen drei Dateien: /boot/grub/menu.lst Diese Datei enthält sämtliche Informationen zu Partitionen oder Betriebssystemen, die mit GRUB gebootet werden können. Wenn diese Angaben nicht zur Verfügung stehen, wird der Benutzer in der GRUB-Befehlszeile danach gefragt (siehe „Ändern von Menü-Einträgen während des Bootvorgangs“ (S. 218)). /boot/grub/device.map Diese Datei übersetzt Gerätenamen aus der GRUB- und BIOS-Notation in LinuxGerätenamen. /etc/grub.conf Diese Datei enthält die Befehle, Parameter und Optionen, die die GRUB-Shell für das ordnungsgemäße Installieren des Bootloaders benötigt. GRUB kann auf mehrere Weisen gesteuert werden. Booteinträge aus einer vorhandenen Konfiguration können im grafischen Menü (Eröffnungsbildschirm) ausgewählt werden. Die Konfiguration wird aus der Datei menu.lst geladen. In GRUB können alle Bootparameter vor dem Booten geändert werden. Auf diese Weise können beispielsweise Fehler behoben werden, die beim Bearbeiten der Menüdatei aufgetreten sind. Außerdem können über eine Art Eingabeaufforderung (siehe „Ändern von Menü-Einträgen während des Bootvorgangs“ (S. 218)) Bootbefehle interaktiv ein-

Der Bootloader

213

gegeben werden. GRUB bietet die Möglichkeit, noch vor dem Booten die Position des Kernels und von initrd festzustellen. Auf diese Weise können Sie auch ein installiertes Betriebssystem booten, für das in der Konfiguration des Bootloaders noch kein Eintrag vorhanden ist. GRUB liegt in zwei Versionen vor: als Bootloader und als normales Linux-Programm im Verzeichnis /usr/sbin/grub. Dieses Programm wird als GRUB-Shell bezeichnet. Es stellt auf dem installierten System eine Emulation von GRUB bereit, die zum Installieren von GRUB oder zum Testen neuer Einstellungen verwendet werden kann. Die Funktionalität, GRUB als Bootloader auf eine Festplatte oder Diskette zu installieren, ist in Form der Befehle install und setup in GRUB integriert. Diese Befehle sind in der GRUB-Shell verfügbar, wenn Linux geladen ist.

9.2.1 Das GRUB-Bootmenü
Hinter dem grafischen Eröffnungsbildschirm mit dem Bootmenü steht die GRUBKonfigurationsdatei /boot/grub/menu.lst, die alle Informationen zu allen Partitionen oder Betriebssystemen enthält, die über das Menü gebootet werden können. GRUB liest bei jedem Systemstart die Menüdatei vom Dateisystem neu ein. Es besteht also kein Bedarf, GRUB nach jeder Änderung an der Datei neu zu installieren. Mit dem YaST-Bootloader können Sie die GRUB-Konfiguration wie in Abschnitt 9.3, „Konfigurieren des Bootloaders mit YaST“ (S. 222) beschrieben ändern. Die Menüdatei enthält Befehle. Die Syntax ist sehr einfach. Jede Zeile enthält einen Befehl, gefolgt von optionalen Parametern, die wie bei der Shell durch Leerzeichen getrennt werden. Einige Befehle erlauben aus historischen Gründen ein Gleichheitszeichen (=) vor dem ersten Parameter. Kommentare werden durch ein Rautezeichen (#) eingeleitet. Zur Erkennung der Menüeinträge in der Menü-Übersicht, müssen Sie für jeden Eintrag einen Namen oder einen title vergeben. Der nach dem Schlüsselwort title stehende Text wird inklusive Leerzeichen im Menü als auswählbare Option angezeigt. Alle Befehle bis zum nächsten title werden nach Auswahl dieses Menüeintrags ausgeführt. Der einfachste Fall ist die Umleitung zu Bootloadern anderer Betriebssysteme. Der Befehl lautet chainloader und das Argument ist normalerweise der Bootblock einer anderen Partition in der Blocknotation von GRUB. Beispiel:
chainloader (hd0,3)+1

214

Referenz

Die Gerätenamen in GRUB werden in „Namenskonventionen für Festplatten und Partitionen“ (S. 215) beschrieben. Dieses Beispiel spezifiziert den ersten Block der vierten Partition auf der ersten Festplatte. Mit dem Befehl kernel wird ein Kernel-Image angegeben. Das erste Argument ist der Pfad zum Kernel-Image auf einer Partition. Die restlichen Argumente werden dem Kernel in seiner Befehlszeile übergeben. Wenn der Kernel nicht über die erforderlichen Treiber für den Zugriff auf die RootPartition verfügt oder ein neueres Linux-System mit erweiterten Hotplug-Funktionen verwendet wird, muss initrd mit einem separaten GRUB-Befehl angegeben werden, dessen einziges Argument der Pfad zu der Datei initrd ist. Da die Ladeadresse von initrd in das geladene Kernel-Image geschrieben wird, muss der Befehl initrd direkt auf den Befehl kernel folgen. Der Befehl root vereinfacht die Angabe der Kernel- und initrd-Dateien. Das einzige Argument von root ist ein Gerät oder eine Partition. Allen Kernel-, initrd- oder anderen Dateipfaden, für die nicht explizit ein Gerät angegeben ist, wird bis zum nächsten root-Befehl das Gerät vorangestellt. Am Ende jeden Menü-Eintrags steht implizit der boot-Befehl, sodass dieser nicht in die Menüdatei geschrieben werden muss. Wenn Sie GRUB jedoch interaktiv zum Booten verwenden, müssen Sie den boot-Befehl am Ende eingeben. Der Befehl selbst hat keine Argumente. Er führt lediglich das geladene Kernel-Image oder den angegebenen Chainloader aus. Wenn Sie alle Menüeinträge geschrieben haben, müssen Sie einen Eintrag als default festlegen. Anderenfalls wird der erste Eintrag (Eintrag 0) verwendet. Sie haben auch die Möglichkeit, ein Zeitlimit in Sekunden anzugeben, nach dem der default-Eintrag gebootet wird. timeout und default werden den Menüeinträgen in der Regel vorangestellt. Eine Beispieldatei finden Sie in „Beispiel einer Menüdatei“ (S. 216).

Namenskonventionen für Festplatten und Partitionen
Die von GRUB für Festplatten und Partitionen verwendeten Namenskonventionen unterscheiden sich von denen, die für normale Linux-Geräte verwendet werden. In GRUB beginnt die Nummerierung der Partitionen mit Null. Daher ist (hd0,0) die erste Partition auf der ersten Festplatte. Auf einem gewöhnlichen Desktop-Computer, bei dem eine Festplatte als Primary Master angeschlossen ist, lautet der entsprechende Linux-Gerätename /dev/hda1. Der Bootloader 215

Die vier möglichen primären Partitionen haben die Partitionsnummern 0 bis 3. Ab 4 werden die logischen Partitionen hochgezählt:
(hd0,0) (hd0,1) (hd0,2) (hd0,3) (hd0,4) (hd0,5) erste primäre Partition auf der ersten Festplatte zweite primäre Partition dritte primäre Partition vierte primäre (und meist eine erweiterte) Partition erste logische Partition zweite logische Partition

In seiner Abhängigkeit von BIOS-Geräten unterscheidet GRUB nicht zwischen IDE-, SATA-, SCSI- und Hardware RAID-Geräten. Alle Festplatten, die vom BIOS oder anderen Controllern erkannt werden, werden der im BIOS voreingestellten Bootreihenfolge entsprechend nummeriert. Leider ist eine eindeutige Zuordnung zwischen Linux-Gerätenamen und BIOS-Gerätenamen häufig nicht möglich. Es generiert die Zuordnung mithilfe eines Algorithmus und speichert sie in der Datei device.map, in der sie bei Bedarf bearbeitet werden kann. Informationen zur Datei device.map finden Sie in Abschnitt 9.2.2, „Die Datei „device.map““ (S. 219). Ein vollständiger GRUB-Pfad besteht aus einem Gerätenamen, der in Klammern geschrieben wird, und dem Pfad der Datei im Dateisystem auf der angegebenen Partition. Der Pfad beginnt mit einem Schrägstrich. Auf einem System mit einer einzelnen IDEFestplatte und Linux auf der ersten Partition könnte der bootbare Kernel beispielsweise wie folgt spezifiziert werden:
(hd0,0)/boot/vmlinuz

Beispiel einer Menüdatei
Das folgende Beispiel zeigt die Struktur einer GRUB-Menüdatei. Diese BeispielInstallation beinhaltet eine Linux-Bootpartition unter /dev/hda5, eine Root-Partition unter /dev/hda7 und eine Windows-Installation unter /dev/hda1.
gfxmenu (hd0,4)/message color white/blue black/light-gray default 0 timeout 8 title linux kernel (hd0,4)/vmlinuz root=/dev/hda7 vga=791 initrd (hd0,4)/initrd title windows

216

Referenz

chainloader(hd0,0)+1 title floppy chainloader(fd0)+1 title failsafe kernel (hd0,4)/vmlinuz.shipped root=/dev/hda7 ide=nodma \ apm=off acpi=off vga=normal nosmp maxcpus=0 3 initrd (hd0,4)/initrd.shipped

Der erste Block definiert die Konfiguration des Eröffnungsbildschirms: gfxmenu (hd0,4)/message Das Hintergrundbild message befindet sich in /dev/hda5. color white/blue black/light-gray Farbschema: white (Vordergrund), blue (Hintergrund), black (Auswahl) und light gray (Hintergrund der Markierung). Das Farbschema wirkt sich nicht auf den Eröffnungsbildschirm, sondern nur auf das anpassbare GRUB-Menü aus, auf das Sie zugreifen können, wenn Sie den Eröffnungsbildschirm mit Esc beenden. default 0 Der erste Menüeintrag title linux soll standardmäßig gebootet werden. timeout 8 Nach acht Sekunden ohne Benutzereingabe bootet GRUB den Standardeintrag automatisch. Um das automatische Booten zu deaktivieren, löschen Sie die Zeile timeout. Wenn Sie timeout 0 setzen, bootet GRUB den Standardeintrag sofort. Im zweiten und größten Block sind die verschiedenen bootbaren Betriebssysteme aufgelistet. Die Abschnitte für die einzelnen Betriebssysteme werden durch title eingeleitet. • Der erste Eintrag (title linux) ist für das Booten von SUSE Linux zuständig. Der Kernel (vmlinuz) befindet sich in der ersten logischen Partition (die Bootpartition) der ersten Festplatte. Hier werden Kernel-Parameter, z. B. die Root-Partition und der VGA-Modus, angehängt. Die Angabe der Root-Partition erfolgt nach der Linux-Namenskonvention (/dev/hda7/), da diese Information für den Kernel bestimmt ist und nichts mit GRUB zu tun hat. Die initrd befindet sich ebenfalls in der ersten logischen Partition der ersten Festplatte.

Der Bootloader

217

• Der zweite Eintrag ist für das Laden von Windows verantwortlich. Windows wird von der ersten Partition der ersten Festplatte aus gebootet (hd0,0). Mittels chainloader +1 wird das Auslesen und Ausführen des ersten Sektors der angegebenen Partition gesteuert. • Der nächste Eintrag dient dazu, das Booten von Diskette zu ermöglichen, ohne dass dazu die BIOS-Einstellungen geändert werden müssten. • Die Bootoption failsafe dient dazu, Linux mit einer bestimmten Auswahl an Kernel-Parametern zu starten, die selbst auf problematischen Systemen ein Hochfahren von Linux ermöglichen. Die Menüdatei kann jederzeit geändert werden. GRUB verwendet die geänderten Einstellungen anschließend für den nächsten Bootvorgang. Sie können diese Datei mit dem Editor Ihrer Wahl oder mit YaST permanent editieren und dauerhaft speichern. Alternativ können Sie temporäre Änderungen interaktiv über die Bearbeitungsfunktion von GRUB vornehmen. Siehe „Ändern von Menü-Einträgen während des Bootvorgangs“ (S. 218).

Ändern von Menü-Einträgen während des Bootvorgangs
Wählen Sie im grafischen Bootmenü das zu bootende Betriebssystem mit den Pfeiltasten aus. Wenn Sie ein Linux-System wählen, können Sie an der Boot-Eingabeaufforderung zusätzliche Bootparameter eingeben. Um einzelne Menüeinträge direkt zu bearbeiten, drücken Sie die Esc -Taste, um den Eröffnungsbildschirm zu schließen und das textbasierte GRUB-Menü anzuzeigen, und drücken Sie anschließend die Taste E . Auf diese Weise vorgenommene Änderungen gelten nur für den aktuellen Bootvorgang und können nicht dauerhaft übernommen werden. WICHTIG: Tastaturbelegung während des Bootvorgangs Beim Bootvorgang ist nur die amerikanische Tastaturbelegung verfügbar. Durch die Möglichkeit, die Menüeinträge zu bearbeiten, kann ein defektes System, das nicht mehr gebootet werden kann, repariert werden, da die fehlerhafte Konfigurationsdatei des Bootloaders mittels der manuellen Eingabe von Parametern umgangen werden kann. Die manuelle Eingabe vom Parametern während des Bootvorgangs ist zudem

218

Referenz

hilfreich zum Testen neuer Einstellungen, ohne dass diese sich auf das native System auswirken. Aktivieren Sie den Bearbeitungsmodus und wählen Sie mithilfe der Pfeiltasten den Menüeintrag aus, dessen Konfiguration sie ändern möchten. Um die Konfiguration zu bearbeiten, drücken Sie die Taste E erneut. Auf diese Weise korrigieren Sie falsche Partitions- oder Pfadangaben, bevor sich diese negativ auf den Bootvorgang auswirken. Drücken Sie Eingabe , um den Bearbeitungsmodus zu verlassen und zum Menü zurückzukehren. Drücken Sie anschließend die Taste B , um diesen Eintrag zu booten. Im Hilfetext am unteren Rand werden weitere mögliche Aktionen angezeigt. Um die geänderten Bootoptionen dauerhaft zu übernehmen und an den Kernel zu übergeben, öffnen Sie die Datei menu.lst als Benutzer root und hängen Sie die entsprechenden Kernel-Parameter an folgende vorhandene Zeile getrennt durch Leerzeichen an:
title linux kernel (hd0,0)/vmlinuz root=/dev/hda3 additional parameter initrd (hd0,0)/initrd

GRUB übernimmt den neuen Parameter beim nächsten Booten automatisch. Alternativ können Sie diese Änderung auch mit dem YaST-Bootloader-Modul vornehmen. Hängen Sie die neuen Parameter getrennt durch Leerzeichen an die vorhandene Zeile an.

9.2.2 Die Datei „device.map“
Die Datei device.map enthält Zuordnungen zwischen den GRUB- und BIOS-Gerätenamen und den Linux-Gerätenamen. In einem Mischsystem aus IDE- und SCSIFestplatten muss GRUB anhand eines bestimmten Verfahrens versuchen, die Bootreihenfolge zu ermitteln, da die BIOS-Informationen zur Bootreihenfolge für GRUB unter Umständen nicht zugänglich sind. GRUB speichert das Ergebnis dieser Analyse in der Datei /boot/grub/device.map. Auf einem System, für das IDE vor SCSI gebootet werden soll, kann die Datei device.map beispielsweise wie folgt aussehen:
(fd0) (hd0) (hd1) /dev/fd0 /dev/hda /dev/sda

Da die Reihenfolge von IDE, SCSI und anderen Festplatten abhängig von verschiedenen Faktoren ist und Linux die Zuordnung nicht erkennen kann, besteht die Möglichkeit, die Reihenfolge in der Datei device.map manuell festzulegen. Wenn beim Booten Probleme auftreten sollten, prüfen Sie, ob die Reihenfolge in dieser Datei der BIOSDer Bootloader 219

Reihenfolge entspricht und ändern Sie sie notfalls temporär mithilfe der GRUB-Eingabeaufforderung. Ist das Linux-System erst gebootet, können Sie die Änderungen in der Datei device.map mithilfe des YaST Bootloader-Moduls oder eines Editors Ihrer Wahl dauerhaft übernehmen. WICHTIG: SATA-Festplatten Je nach Controller werden SATA-Festplatten als IDE-Geräte (/dev/hdx) oder SCSI-Geräte (/dev/sdx) erkannt. Installieren Sie nach dem manuellen Bearbeiten von device.map GRUB mithilfe des folgenden Befehls neu. Dieser Befehl führt dazu, dass die Datei device.map neu geladen wird und die in grub.conf aufgelisteten Befehle ausgeführt werden:
grub --batch < /etc/grub.conf

9.2.3 Die Datei "/etc/grub.conf"
Die drittwichtigste Konfigurationsdatei von GRUB nach menu.lst und device .map ist /etc/grub.conf. Diese Datei enthält die Befehle, Parameter und Optionen, die die GRUB-Shell für das ordnungsgemäße Installieren des Bootloaders benötigt:
root (hd0,4) install /grub/stage1 (hd0,3) /grub/stage2 0x8000 (hd0,4)/grub/menu.lst quit

Bedeutung der einzelnen Einträge: root (hd0,4) Mit diesem Befehl wird GRUB angewiesen, folgende Befehle auf die erste logische Partition der ersten Festplatte anzuwenden. Dort befinden sich die Bootdateien. install Parameter Der Befehl grub sollte mit dem Parameter install ausgeführt werden. stage1 des Bootloaders sollte im erweiterten Partitionscontainer (/grub/stage1 (hd0,3)) installiert werden. stage2 sollte in die Speicheradresse 0x8000 (/grub/stage2 0x8000) geladen werden. Der letzte Eintrag ((hd0,4)/grub/menu.lst) weist GRUB an, wo die Menüdatei zu finden ist.

220

Referenz

2. können Sie ein Bootpasswort festlegen. Benutzer können jedoch über das Bootmenü weiterhin alle Betriebssysteme booten. die ohne Eingabe eines Passworts nicht gebootet werden sollen. wird der übliche Eröffnungsbildschirm nicht angezeigt. Legen Sie als Benutzer root das Bootpasswort wie folgt fest: 1 Geben Sie in der Eingabeaufforderung grub ein. 4 Um zu verhindern.4)/message color white/blue black/light-gray default 0 timeout 8 password --md5 $1$lS2dv/$JOYcdxIn7CJk9xShzzJVw/ Jetzt können GRUB-Befehle in der Booteingabeaufforderung nur nach Drücken der Taste P und der Eingabe des Passworts ausgeführt werden. dass ein oder mehrere Betriebssysteme über das Bootmenü gebootet werden. Beispiel: Der Bootloader 221 .lst hinzu.lst ein: gfxmenu (hd0.4 Festlegen eines Bootpassworts GRUB unterstützt schon vor dem Booten des Betriebssystems den Zugriff auf Dateisysteme. 2 Verschlüssen Sie das Passwort in der GRUB-Shell wie folgt: grub> md5crypt Password: **** Encrypted: $1$lS2dv/$JOYcdxIn7CJk9xShzzJVw/ 3 Fügen Sie die verschlüsselte Zeichenkette in den globalen Abschnitt der Datei menu. Um diese Zugriffe oder das Booten bestimmter Betriebssysteme zu verhindern. auf die sie nach dem Booten keinen Zugriff haben. Dies bedeutet. dass Benutzer ohne root-Berechtigungen auf Dateien des LinuxSystems zugreifen können. fügen Sie den Eintrag lock zu allen Abschnitten in menu . WICHTIG: Bootpasswort und Eröffnungsbildschirm Wenn Sie für GRUB ein Bootpasswort verwenden.9.

223) zeigt dies die aktuelle Bootloader-Konfiguration des Systems und ermöglicht Ihnen. 9. Wenn Sie das Passwort eingegeben und Eingabe gedrückt haben. Wählen Sie im YaST-Kontrollzentrum System → Konfiguration des Bootloaders. um die Eingabeaufforderung für das Passwort zu öffnen.4)/vmlinuz root=/dev/hda7 vga=791 initrd (hd0. Drücken Sie anschließend die Taste P .title linux kernel (hd0. 222 Referenz . um das Menü zu öffnen.4)/initrd lock Nach dem Neubooten des Systems und der Auswahl des Linux-Eintrags im Bootmenü erscheint zunächst folgende Fehlermeldung: Error 32: Must be authenticated Drücken Sie Eingabe . „Konfigurieren des Bootloaders mit YaST“ (S. Änderungen vorzunehmen. sollte das ausgewählte Betriebssystem (in diesem Fall Linux) gebootet werden.3 Konfigurieren des Bootloaders mit YaST Mit dem YaST-Modul ist die Konfiguration des Bootloaders auf Ihrem SUSE LinuxSystem am einfachsten.1. Wie in Abbildung 9.

wenn Sie LILO verwenden möchten: Der Bootloader 223 . um die Einstellungen in Bezug auf Typ. Klicken Sie zum Hinzufügen einer Option auf Hinzufügen. „Booten mit GRUB“ (S. Wenn Sie den Wert einer bestehenden Option ändern möchten. 9. wählen Sie ihn mit der Maus aus und klicken Sie auf Bearbeiten. Wenn Sie nicht mit den Bootloader-Optionen vertraut sind.1 Bootloader-Typ Den Bootloader-Typ können Sie unter Bootloader-Installation festlegen. wählen Sie sie aus und klicken Sie auf Löschen. ändern und löschen. lesen Sie zunächst Abschnitt 9.2. Speicherort und erweiterte Bootloader-Einstellungen anzuzeigen und zu ändern. 212). Gehen Sie wie folgt vor. Wenn Sie eine bestehende Option überhaupt nicht verwenden möchten.Abbildung 9. In SUSE Linux wird standardmäßig der Bootloader GRUB verwendet.1 Konfigurieren des Bootloaders mit YaST Auf der Registerkarte Abschnittsverwaltung können Sie die Bootloader-Abschnitte für die einzelnen Betriebssysteme bearbeiten. Verwenden Sie die Registerkarte Bootloader-Installation.3.

conf.Prozedur 9. 2 Wählen Sie unter Bootloader die Option LILO. Lesen Sie die Dokumentation Ihres Bootloaders sorgfältig durch. 3 Wählen Sie in dem sich öffnenden Dialogfeld folgende Aktionen aus: Neue Konfiguration vorschlagen Lässt YaST eine neue Konfiguration erstellen. Es ist möglich. um die Änderungen zu speichern. um die Änderungen zu übernehmen. Neue Konfiguration ohne Vorschlag erstellen Erstellt eine benutzerdefinierte Konfiguration. Diese Aktion ist während der Installation von SUSE Linux nicht verfügbar. dass beim Konvertieren der Konfiguration einige Einstellungen verloren gehen. Aktuelle Konfiguration konvertieren Lässt YaST die aktuelle Konfiguration konvertieren. Während der Konvertierung wird die alte GRUB-Konfiguration gespeichert. ändern Sie einfach den Bootloader-Typ zurück in GRUB und wählen Sie Vor der Konvertierung gespeicherte Konfiguration wiederherstellen. 224 Referenz . Auf Festplatte gespeicherte Konfiguration einlesen Lädt Ihre eigene Datei /etc/lilo.1 Ändern des Bootloader-Typs 1 Wählen Sie die Registerkarte Bootloader-Installation. Diese Aktion ist während der Installation von SUSE Linux nicht verfügbar. Wenn Sie sie verwenden möchten. wählen Sie Keinen Bootloader installieren. Diese Aktion ist nur auf einem installierten System verfügbar. ANMERKUNG: Benutzerdefinierter Bootloader Wenn Sie einen anderen Bootloader als GRUB oder LILO verwenden möchten. 5 Klicken Sie im Hauptdialogfeld auf Beenden. 4 Klicken Sie auf OK. bevor Sie diese Option auswählen.

ist dies der bevorzugte Standardwert.9. 3. beispielsweise a. 2 Klicken Sie zum Anwenden der Einstellungen auf Beenden.2 Speicherort des Bootloaders ändern 1 Wählen Sie die Registerkarte Bootloader-Installation und anschließend eine der folgenden Optionen für Speicherort des Bootloaders: Master Boot Record von /dev/hdX Dadurch wird der Bootloader im MBR einer Festplatte installiert. Dies ist der Standard für die Option. X gibt die Festplatte an. 5 usw. gehen Sie wie folgt vor: Prozedur 9. Der Bootloader 225 . Andere Mit dieser Option können Sie den Speicherort des Bootloaders manuell angeben. b. wenn Sie auf Ihrer Festplatte mehrere Betriebssysteme installiert haben. Solange keine /boot-Partition erforderlich ist oder der MBR verwendet werden muss. c oder d: hda hdb hdc hdd => => => => ide0 ide0 ide1 ide1 master slave master slave Bootsektor der Boot-Partition /dev/hdXY Der Bootsektor der Partition /boot.3.2 Speicherort des Bootloaders Um den Speicherort des Bootloaders zu ändern. wie in: /dev/hda1 Bootsektor der Root-Partition /dev/hdXY Der Bootsektor der / (root)-Partition.). 4. 2. Das Y steht für die Partition (1.

5 Klicken Sie auf OK. gehen Sie wie folgt vor: Prozedur 9. 6 Klicken Sie auf Beenden.3.3 Standardsystem einrichten 1 Öffnen Sie die Registerkarte Abschnittsverwaltung.4 Ändern des Bootloader-Zeitlimits 1 Öffnen Sie die Registerkarte Bootloader-Installation. 9. um das Zeitlimit des Bootloaders festzulegen: Prozedur 9. um die Änderungen zu aktivieren. das standardmäßig gebootet wird. 2 Klicken Sie auf Bootloader-Optionen. 4 Klicken Sie auf Beenden. indem Sie einen neuen Wert eingeben. 4 Ändern Sie unter Boot-Modus den Wert für Beim Systemstart. 2 Wählen Sie das gewünschte System in der Liste aus.4 Zeitlimit des Bootloaders Der Bootloader bootet das Standardsystem nicht sofort. 3 Klicken Sie auf Als Standard festlegen. um die Änderungen zu speichern. Während des Zeitlimits können Sie das zu bootende System auswählen oder einige Kernel-Parameter schreiben.3. wenn Bootvorgang nach Zeitüberschreitung fortsetzen deaktiviert ist. 3 Aktivieren Sie Boot-Modus. Das Bootmenü sollte dauerhaft ohne Zeitlimit angezeigt werden. 226 Referenz .9.3 Standardsystem Um das System zu ändern. Gehen Sie wie folgt vor. mit der Maus auf den entsprechenden Pfeil klicken oder die Pfeiltasten der Tastatur verwenden.

9. mit dem die aktive Partition gebootet wird.5 Festlegen eines Bootloader-Passworts 1 Öffnen Sie die Registerkarte Bootloader-Installation. 4 Klicken Sie auf OK. 5 Klicken Sie auf Beenden. Damit wird ein zusätzlicher Grad an Sicherheit geboten. 2 Klicken Sie auf Bootloader-Optionen. 3 Aktivieren Sie unter Passwortschutz die Option Bootloader durch Passwort schützen und geben Sie ein Passwort an. 5 Klicken Sie auf Beenden. 2 Klicken Sie auf Details zur Bootloader-Installation. 219)).6 Festlegen der Festplattenreihenfolge 1 Öffnen Sie die Registerkarte Bootloader-Installation. Gehen Sie hierfür wie folgt vor: Prozedur 9.2. um die Änderungen zu speichern. um die Änderungen zu speichern. können Sie die Bootsequenz der Festplatten so festlegen. dass sie dem BIOS-Setup des Computers entsprechen (siehe Abschnitt 9. „Die Datei „device.3.map““ (S. Prozedur 9. 4 Klicken Sie auf OK.5 Sicherheitseinstellungen Mit diesem YaST-Modul können Sie zum Schutz des Bootvorgangs auch ein Passwort einrichten.6 Festplattenreihenfolge Wenn Ihr Computer mehrere Festplatten hat.2. Mithilfe dieses Moduls können Sie auch den Master Boot Record durch generischen Code ersetzen.3.9. um die Änderungen zu speichern. 3 Ändern Sie bei mehreren aufgeführten Festplatten deren Reihenfolge mit einem Klick auf Auf oder Ab. Klicken Sie unter Aktualisie- Der Bootloader 227 .

Um GRUB zu deinstallieren. optional. Klicken Sie auf Beenden. beispielsweise: cd /tmp mkdir iso 228 Referenz . die den Bootloader enthält. ist es auch möglich. 9. um die Änderungen zu speichern.lst. um die Partition zu aktivieren. YaST erstellt während der Installation automatisch ein Backup der ursprünglichen MBR-Version und stellt sie bei Bedarf wieder her. Für die Erstellung eines bootfähigen CD-ROM mit GRUB ist lediglich eine spezielle Form von stage2 namens stage2_eltorito erforderlich sowie.rung der Festplattenbereiche auf MBR durch generischen Code ersetzen.5 Erstellen von Boot-CDs Wenn beim Booten Ihres Systems unter Verwendung eines Bootmanagers Probleme auftreten oder wenn der Bootmanager auf dem MBR Ihrer Festplatte oder einer Diskette nicht installiert werden kann. eine benutzerdefinierte Datei menu. Wählen Sie Bootloader-Partition aktivieren. starten Sie das YaST-Bootloader-Modul (System → Konfiguration des Bootloaders). Hierfür muss ein CD-Brenner in Ihrem System installiert sein. Prozedur 9. eine bootfähige CD mit all den für Linux erforderlichen Startdateien zu erstellen. Die klassischen Dateien stage1 und stage2 sind nicht erforderlich. 9.4 Deinstallieren des Linux-Bootloaders Mit YaST können Sie den Linux-Bootloader deinstallieren und den Zustand des MBR wiederherstellen. in dem das ISO-Image erstellt werden soll. der vor der Installation von Linux vorlag. Wählen Sie im ersten Dialogfeld Zurücksetzen → MBR von Festplatte wiederherstellen und schließen Sie das Dialogfeld mit Beenden.7 Erstellen von Boot-CDs 1 Erstellen Sie ein Verzeichnis.

6 Der grafische SUSE-Bildschirm Seit SUSE Linux 7. Sie haben bei Bedarf drei Möglichkeiten. Bei der Installation mit YaST wird diese Option automatisch in Abhängigkeit von der gewählten Auflösung und der verwendeten Grafikkarte aktiviert. dass sie auf ein CD-ROM-Laufwerk verweisen.lst iso/boot/grub 4 Passen Sie die Pfadeinträge in iso/boot/menu. den SUSE-Bildschirm zu deaktivieren: Der Bootloader 229 .iso unter Verwendung Ihres bevorzugten Dienstprogramms auf eine CD.2 Erstellen Sie ein Unterverzeichnis für GRUB: mkdir -p iso/boot/grub 3 Kopieren Sie den Kernel. das mit (cd) angegeben wird: gfxmenu (cd)/boot/message timeout 8 default 0 title Linux kernel (cd)/boot/vmlinuz root=/dev/hda5 vga=794 resume=/dev/hda1 \ splash=verbose showopts initrd (cd)/boot/initrd 5 Erstellen Sie das ISO-Image mit dem folgenden Befehl: mkisofs -R -b boot/grub/stage2_eltorito -no-emul-boot \ -boot-load-size 4 -boot-info-table -o grub.iso iso 6 Schreiben Sie die so erstellte Datei namens grub.lst so an. die Dateien stage2_eltorito. 9. die im Format (hd*) aufgeführt sind. Ersetzen Sie hierfür in den Pfadnamen den Gerätenamen der Festplatten. menu . initrd. wenn die Option „vga=<Wert>“ als Kernel-Parameter verwendet wird.lst und /boot/message nach iso/boot/: cp cp cp cp /boot/vmlinuz iso/boot/ /boot/initrd iso/boot/ /boot/message iso/boot/ /boot/grub/menu. mit dem Gerätenamen des CD-ROM-Laufwerks.2 wird der grafische SUSE-Bildschirm auf der ersten Konsole angezeigt.

9.de/sdb/en/index . Wenn Sie jedoch den Textmodus wie in früheren Versionen bevorzugen. Wenn Sie einen eigenen Kernel kompilieren. legen Sie Folgendes fest: vga=normal. Den SUSE-Bildschirm standardmäßig deaktivieren Fügen Sie den Kernel-Parameter splash=0 zur Konfiguration des Bootloaders hinzu. TIPP Wenn Sie im Kernel die Framebuffer-Unterstützung deaktiviert haben. Weitere Informationen hierzu finden Sie in Kapitel 9. Der Bootloader (S. Um ihn wieder zu aktivieren. Einige der Probleme werden in den Artikeln in der Support-Datenbank unter http://portal. Sollte Ihr spezifisches Problem nicht in dieser Liste enthalten sein. sowie deren Lösungen behandelt. die beim Booten mit GRUB auftreten können. GRUB und XFS XFS lässt im Partitions-Bootblock keinen Platz für stage1. die nicht mit XFS formatiert ist. geben Sie den Befehl echo 1 >/proc/splash ein. ist der Eröffnungsbildschirm automatisch auch deaktiviert. Den SUSE-Bildschirm vollständig deaktivieren Kompilieren Sie einen neuen Kernel und deaktivieren Sie die Option zum Verwenden des Eröffnungsbildschirms anstelle des Bootlogos im Menü FramebufferUnterstützung. in der Suchmaske der Support-Datenbank unter https://portal . erstellen Sie eine separate Bootpartition. 211).7 Fehlerbehebung In diesem Abschnitt werden einige der Probleme.suse. Sie dürfen also als Speicherort des Bootloaders keinesfalls eine XFS-Partition angeben. um den grafischen Bildschirm zu deaktivieren.com/PM/page/search. Booten und Bootloader zu suchen. empfehlen wir. Um diesen Problem zu beheben. 230 Referenz . kann SUSE dafür keinen Support garantieren.Den SUSE-Bildschirm bei Bedarf deaktivieren Geben Sie den Befehl echo 0 >/proc/splash in der Befehlszeile ein.suse.pm nach den Stichworten GRUB.html beschrieben.

können Sie für den entsprechenden Menüeintrag einen logischen Tausch veranlassen.map. Windows. Korrigieren Sie in solchen Fällen mithilfe der GRUB-Befehlszeile beim Booten die verwendeten Festplatten. das BIOS. das IDE. Verwenden Sie in solchen Fällen LILO oder aktualisieren Sie ggf. bootet nicht Möglicherweise wurde die Bootsequenz der Festplatten während der Installation von YaST falsch ermittelt. wobei aber im BIOS die umgekehrte Reihenfolge (SCSI vor IDE) angegeben ist. So nimmt GRUB beispielsweise /dev/hda als hd0 und /dev/sda als hd1 an.und SCSI-Festplatten enthält. System. Der erste Teil des Bootloadersstage1 wird korrekt gefunden und geladen. diese aber nicht im BIOS registriert wurde. Installieren Sie anschließend GRUB auf dieser Partition. Detaillierte Informationen zur Installation.lst und /boot/grub/device. indem Sie die neue Festplatte unverzüglich im BIOS registrieren. wenn Linux auf einer zusätzlichen Festplatte im System installiert wurde. Bearbeiten Sie im gebooteten System die Datei device. aber die zweite Stufe stage2 wird nicht gefunden. sodass GRUB einen „GRUB Geom Error“ meldet. B. z. GRUB meldet GRUB Geom Error GRUB überprüft die Geometrie der angeschlossenen Festplatten beim Booten des Systems. können nur von der ersten Festplatte gebootet werden.GRUB und JFS Obwohl technisch möglich. ist eine Kombination von GRUB mit JFS problematisch.conf Windows von der zweiten Festplatte booten Einige Betriebssysteme. Konfiguration und Wartung von LILO finden Sie in der Support-Datenbank unter dem Stichwort LILO.map und installieren Sie den Bootloader mit dem folgenden Befehl neu: grub --batch < /etc/grub. In seltenen Fällen macht das BIOS hier inkonsistente Angaben. Erstellen Sie in solchen Fällen eine separate Bootpartition (/boot) und formatieren Sie sie mit Ext2. Der Bootloader 231 . GRUB gibt diese Fehlermeldung auch in solchen Fällen aus. Dieses Problem können Sie umgehen. Wenn ein solches Betriebssystem auf einer anderen als der ersten Festplatte installiert ist. Anschließend überprüfen Sie die GRUB-Gerätenamen in den Dateien/boot/grub/menu. um die neue Zuordnung dauerhaft festzulegen.

8 Weitere Informationen Umfassende Informationen zu GRUB finden Sie auf der Webseite unter http://www .. Daher müssen Sie bei chainloader nach wie vor die zweite Festplatte angeben. Dazu wird die logische Reihenfolge der Festplatten mit map getauscht.. 9.. 232 Referenz .html eingeben.suse. Ausführliche Informationen finden Sie auch auf der Infoseite für den Befehl grub.org/software/grub/. können Sie auch „GRUB“ als Suchwort in der Supportdatenbank unter http://portal.gnu... Um weitere Informationen zu bestimmten Themen zu erhalten. In diesem Beispiel soll Windows von der zweiten Festplatte gestartet werden.de/sdb/en/index. title windows map (hd0) (hd1) map (hd1) (hd0) chainloader(hd1.0)+1 . Die Logik innerhalb der GRUB-Menüdatei ändert sich dadurch jedoch nicht.

Das Kapitel endet mit einem Abschnitt zu sprach. Selbst wenn sie nur klein sind oder als nicht besonders wichtig eingestuft werden. ulimit und free sowie die Datei resolv. können die Benutzer ihr Standardverhalten ändern. sind jedoch nicht immer verfügbar. 10. Hier finden Sie Hinweise zu Software-Komponenten.1 Informationen zu speziellen Software-Paketen Die Programme bash.conf spielen für Systemadministratoren und viele Benutzer eine wichtige Rolle.1.1 Das Paket bash und /etc/profile Bash ist die Standard-Shell in SUSE Linux. Manualpages und info-Seiten sind hilfreiche Informationsquellen Zu Befehlen. cron und logrotate. Spezielle Funktionen von SUSE Linux 233 . Bash verarbeitet die entsprechenden Informationen in der Reihenfolge dieser Liste. wie bash. cron. logrotate. zu den Virtuellen Konsolen und zur Tastaturbelegung.Spezielle Funktionen von SUSE Linux 10 In diesem Kapitel erhalten Sie zunächst Informationen zu den verschiedenen SoftwarePaketen. werden mehrere Initialisierungsdateien gelesen. 10. da diese Komponenten häufig eng mit dem System verbunden sind. da diese im Laufe der letzten Veröffentlichungszyklen geändert oder verbessert wurden.und landesspezifischen Einstellungen (I18N und L10N). Wenn sie als Anmelde-Shell verwendet wird. locate. GNU Emacs ist ein beliebter konfigurierbarer Texteditor.

d weisen alle dasselbe Format auf. um den Verlust persönlicher Einstellungen zu vermeiden: mv cp mv cp ~/.bashrc ~/.profile /etc/bash.old /etc/skel/.2 Das cron-Paket Wenn Sie Befehle regelmäßig und automatisch im Hintergrund zu bestimmten Zeitpunkten ausführen möchten. cron wird durch speziell formatierte Zeittabellen gesteuert.1 Eintrag in /etc/crontab 1-59/5 * * * * root test -x /usr/sbin/atrun && /usr/sbin/atrun 234 Referenz . 4.profile oder in ~/. die Einstellungen aus /etc/skel nach einer Aktualisierung zu kopieren.1.bashrc ~/.bashrc können benutzerdefinierte Einstellungen vorgenommen werden.profile Kopieren Sie anschließend die persönlichen Einstellungen erneut aus den *. 3.profile ~/.1. Es empfiehlt sich. /etc/ crontab dient als systemübergreifende cron-Tabelle.bashrc ~/. bei Bedarf können Benutzer jedoch auch eigene Tabellen erstellen. 234). verwenden Sie in der Regel das Werkzeug cron. müssen die Grundeinstellungen aus /etc/skel/. In Beispiel 10. wird root eingegeben. Die cron-Tabellen befinden sich im Verzeichnis /var/spool/cron/tabs.bashrc In ~/.profile. Um die richtige Verarbeitung der Dateien zu gewährleisten. Geben Sie den Benutzernamen zur Ausführung des Befehls unmittelbar nach der Zeittabelle und noch vor dem Befehl ein. 2. Führen Sie die folgenden Shell-Befehle aus.bashrc.profile ~/.old /etc/skel/. Informationen hierzu finden Sie auf der Manualpage zu cron (man cron). „Eintrag in /etc/crontab“ (S.1. 10. /etc/profile ~/.bashrc in das Home-Verzeichnis des Benutzers kopiert werden. Beispiel 10.bashrc ~/.old-Dateien. Die paketspezifischen Tabellen in /etc/cron.profile oder /etc/skel/. Einige sind bereits im Lieferumfang des Systems enthalten.

Beispiel 10. Einige Pakte installieren Shell-Skripts in die Verzeichnisse /etc/cron.monthly Die täglichen Systemwartungsaufträge wurden zum Zwecke der Übersichtlichkeit auf mehrere Skripts verteilt.de-clean-tmp oder suse. Auf diese Weise kann der Administrator den Status des Systems zu einem bestimmten Zeitpunkt regelmäßig überprüfen. Die Protokolldateien werden in der Regel.weekly /var/spool/cron/lastrun/cron. wodurch hourly vor jeder vollen Stunde und daily einmal täglich um 2. Die Datei muss direkt in einem Editor geladen. Fehler oder Fehlfunktionen erkennen und die Fehler mit Präzision beheben. Mit dem Paket logrotate kann der Umfang der Dateien gesteuert werden. Zum Ausführen der Skripts hourly. unter /var/log gespeichert und werden täglich umfangreicher.2.monthly.2 /etc/crontab: Entfernen von Zeitstempeldateien 59 14 29 44 * 2 2 2 * * * 1 * * * * * * 6 * root root root root rm rm rm rm -f -f -f -f /var/spool/cron/lastrun/cron. suse .daily enthält beispielsweise die Komponenten suse.de-backup-rpmdb. Sie sind im Paket aaa_base enthalten.daily /var/spool/cron/lastrun/cron.).1. „/etc/crontab: Entfernen von Zeitstempeldateien“ (S.de-cron-local. deren Ausführung durch /usr/lib/cron/run-crons gesteuert wird. /etc/cron.14 Uhr entfernt wird usw./etc/crontab kann nicht durch Aufrufen des Befehls crontab -e bearbeitet werden. daily oder von anderen Skripts für regelmäßige Wartungsarbeiten zu benutzerdefinierten Zeitpunkten entfernen Sie regelmäßig die Verwendung der Zeitstempeldateien mithilfe von /etc/crontab-Einträgen (siehe Beispiel 10.weekly und /etc/cron. 10. dass vernachlässigte Prozesse zum richtigen Zeitpunkt ausgeführt werden können. /etc/cron. 235). /usr/lib/ cron/run-crons wird von der Haupttabelle (/etc/crontab) alle 15 Minuten ausgeführt. /etc/cron. wie von FHS angegeben. Spezielle Funktionen von SUSE Linux 235 .daily. geändert und dann gespeichert werden.hourly. Hiermit wird gewährleistet.3 Protokolldateien: Paket logrotate Mehrere Systemdienste (Daemons) zeichnen zusammen mit dem Kernel selbst regelmäßig den Systemstatus und spezielle Ereignisse in Protokolldateien auf.hourly /var/spool/cron/lastrun/cron.

Konfigurieren Sie Logrotate mit der Datei /etc/logrotate.conf. Die Dateien, die zusätzlich gelesen werden sollen, werden insbesondere durch die include-Spezifikation konfiguriert. Mit SUSE Linux wird sichergestellt, dass Programme, die Protokolldateien erstellen, einzelne Konfigurationsdateien in /etc/logrotate.d installieren. Solche Programme sind beispielsweise im Lieferumfang der Pakete apache2 (/etc/logrotate.d/apache2) und syslogd (/etc/logrotate .d/syslog) enthalten. Beispiel 10.3 Beispiel für /etc/logrotate.conf
# see "man logrotate" for details # rotate log files weekly weekly # keep 4 weeks worth of backlogs rotate 4 # create new (empty) log files after rotating old ones create # uncomment this if you want your log files compressed #compress # RPM packages drop log rotation information into this directory include /etc/logrotate.d # no packages own lastlog or wtmp - we'll rotate them here #/var/log/wtmp { # monthly # create 0664 root utmp # rotate 1 #} # system-specific logs may be also be configured here.

logrotate wird über cron gesteuert und täglich durch /etc/cron.daily/ logrotate aufgerufen. WICHTIG Mit der Option create werden alle vom Administrator in /etc/ permissions* vorgenommenen Einstellungen gelesen. Stellen Sie sicher, dass durch persönliche Änderungen keine Konflikte auftreten.

236

Referenz

10.1.4 Der Befehl „locate“
Der Befehl „locate“ zum schnellen Suchen von Dateien ist nicht im Standardumfang der installierten Software enthalten. Wenn Sie möchten, installieren Sie das Paket find-locate. Der Prozess updatedb wird jeden Abend etwa 15 Minuten nach dem Booten des Systems gestartet.

10.1.5 Der Befehl „ulimit“
Mit dem Befehl ulimit (user limits) können Grenzwerte für die Verwendung der Systemressourcen festgelegt und angezeigt werden. ulimit ist insbesondere für die Begrenzung des für Anwendungen verfügbaren Speichers hilfreich. Hiermit kann verhindert werden, dass eine Anwendung zu viel Speicher belegt, wodurch es zu einem Stillstand des Systems kommen kann. ulimit kann mit verschiedenen Optionen verwendet werden. Verwenden Sie zum Begrenzen der Speicherauslastung die in Tabelle 10.1, „ulimit: Festlegen von Ressourcen für Benutzer“ (S. 237) aufgeführten Optionen. Tabelle 10.1 -m -v -s -c -a ulimit: Festlegen von Ressourcen für Benutzer Maximale Größe des physischen Arbeitsspeichers Maximale Größe des virtuellen Arbeitsspeichers Maximale Größe des Stapels Maximale Größe der Core-Dateien Anzeigen der festgelegten Grenzwerte

In /etc/profile können Sie systemweite Einträge vornehmen. Aktivieren Sie hier die Erstellung der Core-Dateien, die Programmierer für die Fehlersuche benötigen. Ein normaler Benutzer kann die in /etc/profile vom Systemadministrator festgelegten Werte nicht erhöhen, er kann jedoch spezielle Einträge in ~/.bashrc vornehmen.

Spezielle Funktionen von SUSE Linux

237

Beispiel 10.4 ulimit: Einstellungen in ~/.bashrc
# Limits of physical memory: ulimit -m 98304 # Limits of virtual memory: ulimit -v 98304

Die Speicherangaben müssen in KB erfolgen. Weitere Informationen erhalten Sie mit man bash. WICHTIG ulimit-Anweisungen werden nicht von allen Shells unterstützt. PAM (beispielsweise pam_limits) bietet umfassende Anpassungsmöglichkeiten, wenn Sie Einstellungen für diese Beschränkungen vornehmen müssen.

10.1.6 Der Befehl „free“
Der Befehl free ist leicht irreführend, wenn Sie herausfinden möchten, wie viel Arbeitsspeicher zurzeit verwendet wird. Die entsprechenden Informationen finden Sie in /proc/meminfo. Heute müssen sich Benutzer, die ein modernes Betriebssystem wie Linux verwenden, in der Regel kaum Gedanken über den Arbeitsspeicher machen. Das Konzept des verfügbaren Arbeitsspeichers geht auf Zeiten vor der einheitlichen Speicherverwaltung zurück. Bei Linux gilt der Grundsatz freier Arbeitsspeicher ist schlechter Arbeitsspeicher. Daher wurde bei Linux immer darauf geachtet, die Caches auszugleichen, ohne freien oder nicht verwendeten Arbeitsspeicher zuzulassen. Der Kernel verfügt nicht direkt über Anwendungs- oder Benutzerdaten. Stattdessen verwaltet er Anwendungen und Benutzerdaten in einem Seiten-Cache. Falls nicht mehr genügend Arbeitsspeicher vorhanden ist, werden Teile auf der Swap-Partition oder in Dateien gespeichert, von wo aus sie mithilfe des Befehls mmap abgerufen werden können. (siehe man mmap). Der Kernel enthält zusätzlich andere Caches, wie beispielsweise den slab-Cache, in dem die für den Netzwerkzugriff verwendeten Caches gespeichert werden. Hiermit können die Unterschiede zwischen den Zählern in /proc/meminfo erklärt werden. Die meisten, jedoch nicht alle dieser Zähler können über /proc/slabinfo aufgerufen werden.

238

Referenz

10.1.7 Die Datei /etc/resolv.conf
Die Auflösung von Domänennamen erfolgt über die Datei /etc/resolv.conf. Informationen hierzu erhalten Sie in Kapitel 20, Das Domain Name System (DNS) (S. 399). Diese Datei wird ausschließlich mit dem Skript /sbin/modify_resolvconf aktualisiert. Kein anderes Programm verfügt über direkte Änderungsberechtigungen für /etc/resolv.conf. Das Erzwingen dieser Regel ist die einzige Möglichkeit, um die Konsistenz der Netzwerkkonfiguration und der relevanten Dateien des Systems zu gewährleisten.

10.1.8 Manualpages und Info-Seiten
Für einige GNU-Anwendungen (wie beispielsweise tar) sind keine Manualpages mehr vorhanden. Verwenden Sie für diese Befehle die Option --help, um eine kurze Übersicht über die info-Seiten zu erhalten, in der Sie detailliertere Anweisungen erhalten. info befindet sich im Hypertextsystem von GNU. Eine Einführung in dieses System erhalten Sie durch Eingabe von info info. Info-Seiten können durch Eingabe von emacs -f info mit Emacs oder mit info direkt in einer Konsole angezeigt werden. Sie können auch tkinfo, xinfo oder das Hilfesystem von SUSE zum Anzeigen von info-Seiten verwenden.

10.1.9 Einstellungen für GNU Emacs
GNU Emacs ist eine komplexe Arbeitsumgebung. In den folgenden Abschnitten werden die beim Starten von GNU Emacs verarbeiteten Dateien beschrieben. Weitere Informationen hierzu erhalten Sie online unter http://www.gnu.org/software/emacs/ . Beim Starten liest Emacs mehrere Dateien, in denen die Einstellungen für den Benutzer, den Systemadministrator und den Distributor zur Anpassung oder Vorkonfiguration enthalten sind. Die Initialisierungsdatei ~/.emacs ist in den Home-Verzeichnissen der einzelnen Benutzer von /etc/skel installiert. .emacs wiederum liest die Datei /etc/skel/.gnu-emacs. Zum Anpassen des Programms kopieren Sie .gnu-emacs in das Home-Verzeichnis (mit cp /etc/skel/.gnu-emacs ~/.gnu-emacs) und nehmen Sie dort die gewünschten Einstellungen vor.

Spezielle Funktionen von SUSE Linux

239

In .gnu-emacs wird die Datei ~/.gnu-emacs-custom als custom-file definiert. Wenn Benutzer in Emacs Einstellungen mit den customize-Optionen vornehmen, werden die Einstellungen in ~/.gnu-emacs-custom gespeichert. Bei SUSE Linux wird mit dem emacs-Paket die Datei site-start.el im Verzeichnis /usr/share/emacs/site-lisp installiert. Die Datei site-start.el wird vor der Initialisierungsdatei ~/.emacs geladen. Mit site-start.el wird unter anderem sichergestellt, dass spezielle Konfigurationsdateien mit Emacs-Zusatzpaketen, wie psgml, automatisch geladen werden. Konfigurationsdateien dieses Typs sind ebenfalls unter /usr/share/emacs/site-lisp gespeichert und beginnen immer mit suse-start-. Der lokale Systemadministrator kann systemweite Einstellungen in default.el festlegen. Weitere Informationen zu diesen Dateien finden Sie in der Info-Datei zu Emacs unter Init File: info:/emacs/InitFile. Informationen zum Deaktivieren des Ladens dieser Dateien (sofern erforderlich) stehen dort ebenfalls zur Verfügung. Die Komponenten von Emacs sind in mehrere Pakete unterteilt: • Das Basispaket emacs. • emacs-x11 (in der Regel installiert): das Programm mit X11-Unterstützung. • emacs-nox: das Programm ohne X11-Unterstützung. • emacs-info: Onlinedokumentation im Info-Format. • emacs-el: Die nicht kompilierten Bibliotheksdateien in Emacs Lisp. Sie sind während der Laufzeit nicht erforderlich. • Falls erforderlich, können mehrere Zusatzpakete installiert werden: emacs-auctex (für LaTeX), psgml (für SGML und XML), gnuserv (für den Client- und Serverbetrieb) und andere.

10.2 Virtuelle Konsolen
Linux ist ein Multitasking-System für den Mehrbenutzerbetrieb. Die Vorteile dieser Funktionen können auch auf einem eigenständigen PC-System genutzt werden. Im Textmodus stehen sechs virtuelle Konsolen zur Verfügung. Mit den Tasten Alt + F1

240

Referenz

bis Alt + F6 können Sie zwischen diesen Konsolen umschalten. Die siebte Konsole ist für X und reserviert und in der zehnten Konsole werden Kernel-Meldungen angezeigt. Durch Ändern der Datei /etc/inittab können mehrere oder weniger Konsolen zugewiesen werden. Wenn Sie von X ohne Herunterfahren zu einer anderen Konsole wechseln möchten, verwenden Sie die Tasten Strg + Alt + F1 bis Strg + Alt + F6 . Mit Alt + F7 kehren Sie zu X zurück.

10.3 Tastaturzuordnung
Um die Tastaturzuordnung der Programme zu standardisieren, wurden Änderungen an folgenden Dateien vorgenommen:
/etc/inputrc /usr/X11R6/lib/X11/Xmodmap /etc/skel/.Xmodmap /etc/skel/.exrc /etc/skel/.less /etc/skel/.lesskey /etc/csh.cshrc /etc/termcap /usr/lib/terminfo/x/xterm /usr/X11R6/lib/X11/app-defaults/XTerm /usr/share/emacs/<VERSION>/site-lisp/term/*.el

Diese Änderungen betreffen nur Anwendungen, die terminfo-Einträge verwenden oder deren Konfigurationsdateien direkt geändert werden (vi, less usw.). Anwendungen, die nicht im Lieferumfang von SUSE Linux enthalten sind, sollten an diese Standards angepasst werden. Unter X kann auf die Compose-Taste (Multikey) über Strg + Umschalt (rechts) zugegriffen werden. Siehe auch den entsprechenden Eintrag in /usr/X11R6/lib/ X11/Xmodmap. Weitere Einstellungen sind möglich mit der X-Tastaturerweiterung (XKB). Diese Erweiterung wird auch von den Desktop-Umgebungen GNOME (gswitchit) und KDE (kxkb) verwendet.

Spezielle Funktionen von SUSE Linux

241

TIPP: Weitere Informationen Informationen zu XKB finden Sie in /etc/X11/xkb/README und den dort aufgeführten Dokumenten. Detaillierte Informationen zur Eingabe von Chinese, Japanisch und Koreanisch (CJK) finden Sie auf der Seite von Mike Fabian: http://www.suse.de/ ~mfabian/suse-cjk/input.html.

10.4 Sprach- und länderspezifische Einstellungen
SUSE Linux wurde zu einem großen Teil internationalisiert und kann flexibel an lokale Gegebenheiten angepasst werden. Anders ausgedrückt: Die Internationalisierung (I18N) ermöglicht spezielle Lokalisierungen (L10N). Die Abkürzungen I18N und L10N wurden von den ersten und letzten Buchstaben der englischsprachigen Begriffe und der Anzahl der dazwischen stehenden ausgelassenen Wörter abgeleitet. Die Einstellungen werden mit LC_-Variablen vorgenommen, die in der Datei /etc/ sysconfig/language definiert sind. Dies bezieht sich nicht nur auf die native Sprachunterstützung, sondern auch auf die Kategorien Meldungen (Sprache) Zeichensatz, Sortierreihenfolge, Uhrzeit und Datum, Zahlen und Währung. Diese Kategorien können direkt über eine eigene Variable oder indirekt mit einer Master-Variable in der Datei language festgelegt werden (weitere Informationen erhalten Sie auf der Manualpage zu locale). RC_LC_MESSAGES, RC_LC_CTYPE, RC_LC_COLLATE, RC_LC_TIME, RC_LC_NUMERIC, RC_LC_MONETARY Diese Variablen werden ohne das Präfix RC_ an die Shell weitergegeben und stehen für die aufgelisteten Kategorien. Die betreffenden Shell-Profile werden unten aufgeführt. Die aktuelle Einstellung lässt sich mit dem Befehl locale anzeigen. RC_LC_ALL Sofern diese Variable festgelegt ist, setzt Sie die Werte der bereits erwähnten Variablen außer Kraft.

242

Referenz

RC_LANG Falls keine der zuvor genannten Variablen festgelegt ist, ist dies das Fallback. Standardmäßig ist in SUSE Linux nur RC_LANG festgelegt. Dadurch wird es für die Benutzer einfacher, eigene Werte einzugeben. ROOT_USES_LANG Eine Variable, die entweder den Wert yes oder den Wert no aufweist. Wenn die Variable auf no gesetzt ist, funktioniert root immer in der POSIX-Umgebung. Die Variablen können über den sysconfig-Editor von YaST (siehe Abschnitt 8.3.1, „Ändern der Systemkonfiguration mithilfe des YaST-Editors „sysconfig““ (S. 207)) festgelegt werden. Der Wert einer solchen Variable enthält den Sprachcode, den Ländercode, die Codierung und einen Modifier. Die einzelnen Komponenten werden durch Sonderzeichen verbunden:
LANG=<language>[[_<COUNTRY>].<Encoding>[@<Modifier>]]

10.4.1 Beispiele
Sprach- und Ländercode sollten immer gleichzeitig eingestellt werden. Die Spracheinstellungen entsprechen der Norm ISO 639, die unter http://www.evertype.com/ standards/iso639/iso639-en.html und http://www.loc.gov/ standards/iso639-2/ verfügbar ist. Die in ISO 3166 aufgeführten Ländercodes sind unter http://www.din.de/gremien/nas/nabd/iso3166ma/ codlstp1/en_listp1.html verfügbar. Es ist nur sinnvoll, Werte festzulegen, für die verwendbare Beschreibungsdateien unter /usr/lib/locale zu finden sind. Anhand der Dateien in /usr/share/i18n können mit dem Befehl localedef zusätzliche Beschreibungsdateien erstellt werden. Die Beschreibungsdateien sind Bestandteil des Pakets glibc-i18ndata. Eine Beschreibungsdatei für en_US.UTF-8 (für Englisch und USA) kann beispielsweise wie folgt erstellt werden:
localedef -i en_US -f UTF-8 en_US.UTF-8

LANG=en_US.UTF-8 Dies ist die Standardeinstellung, wenn während der Installation US-Englisch ausgewählt wurde. Wenn Sie eine andere Sprache ausgewählt haben, wird diese Sprache ebenfalls mit der Zeichencodierung UTF-8 aktiviert.

Spezielle Funktionen von SUSE Linux

243

LANG=en_US.ISO-8859-1 Hiermit wird als Sprache Englisch, als Land die USA und als Zeichensatz ISO-8859-1 festgelegt. In diesem Zeichensatz wird das Eurozeichen nicht unterstützt, es kann jedoch gelegentlich in Programmen nützlich sein, die nicht für die UTF-8-Unterstützung aktualisiert wurden. Die Zeichenkette, mit der der Zeichensatz definiert wird (in diesem Fall ISO-8859-1), wird anschließend von Programmen, wie Emacs, ausgewertet. LANG=en_IE@euro Im oben genannten Beispiel wird das Eurozeichen explizit in die Spracheinstellung aufgenommen. Streng genommen ist diese Einstellung mittlerweile veraltet, da das Eurozeichen jetzt ebenfalls in UTF-8 enthalten ist. Diese Einstellung ist nur sinnvoll, wenn eine Anwendung UTF-8 nicht unterstützt, ISO-8859-15 jedoch unterstützt. SuSEconfig liest die Variablen in /etc/sysconfig/language und speichert die erforderlichen Änderungen in /etc/SuSEconfig/profile und /etc/ SuSEconfig/csh.cshrc. /etc/SuSEconfig/profile von /etc/profile gelesen oder als Quelle verwendet. /etc/SuSEconfig/csh.cshrc wird von /etc/csh.cshrc als Quelle verwendet. Auf diese Weise werden die Einstellungen systemweit verfügbar. Die Benutzer können die Standardeinstellungen des Systems außer Kraft setzen, indem Sie die Datei ~/.bashrc entsprechend bearbeiten. Wenn Sie die systemübergreifende Einstellung en_US für Programmmeldungen beispielsweise nicht verwenden möchten, nehmen Sie beispielsweise LC_MESSAGES=es_ES auf, damit die Meldungen stattdessen auf Spanisch angezeigt werden.

10.4.2 Locale-Einstellungen in ~/.i18n
Wenn Sie nicht mit den Systemeinstellungen für Locale zufrieden sind, ändern Sie die Einstellungen in ~/.i18n. Die Einträge in ~/.i18n setzen die Systemstandardwerte aus /etc/sysconfig/language außer Kraft. Verwenden Sie dieselben Variablennamen, jedoch ohne die RC_-Präfixe für den Namespace, also beispielsweise LANG anstatt RC_LANG.

244

Referenz

10.4.3 Einstellungen für die Sprachunterstützung
Die Dateien in der Kategorie Meldungen werden generell im entsprechenden Sprachverzeichnis (wie beispielsweise en) gespeichert, damit ein Fallback vorhanden ist. Wenn Sie für LANG den Wert en_US festlegen und in /usr/share/locale/en _US/LC_MESSAGES keine Meldungsdatei vorhanden ist, wird ein Fallback auf /usr/ share/locale/en/LC_MESSAGES ausgeführt. Darüber hinaus kann eine Fallback-Kette definiert werden, beispielsweise für Bretonisch zu Französisch oder für Galizisch zu Spanisch oder Portugiesisch: LANGUAGE="br_FR:fr_FR" LANGUAGE="gl_ES:es_ES:pt_PT" Wenn Sie möchten, können Sie die norwegischen Varianten Nynorsk und Bokmål (mit zusätzlichem Fallback auf no) verwenden: LANG="nn_NO" LANGUAGE="nn_NO:nb_NO:no" Oder: LANG="nb_NO" LANGUAGE="nb_NO:nn_NO:no" Beachten Sie, das bei Norwegisch auch LC_TIME anders behandelt wird. Ein mögliches Problem ist, dass ein Trennzeichen, das zum Trennen von Zifferngruppen verwendet wird, nicht richtig erkannt wird. Dies tritt auf, wenn LANG auf einen aus zwei Buchstaben bestehenden Sprachcode wie de, gesetzt ist, in der Definitionsdatei, die glibc verwendet, jedoch in /usr/share/lib/de_DE/LC_NUMERIC gespeichert ist. Daher muss LC_NUMERIC auf de_DE gesetzt sein, damit das System die Trennzeichendefinition erkennen kann.

Spezielle Funktionen von SUSE Linux

245

10.4.4 Weitere Informationen
• The GNU C Library Reference Manual, Kapitel „Locales and Internationalization“. Dieses Handbuch ist in glibc-info enthalten. • Markus Kuhn, UTF-8 and Unicode FAQ for Unix/Linux, momentan verfügbar unter http://www.cl.cam.ac.uk/~mgk25/unicode.html. • Unicode-Howto von Bruno Haible: /usr/share/doc/howto/en/html/ Unicode-HOWTO.html.

246

Referenz

Druckerbetrieb

11

CUPS ist das Standard-Drucksystem in SUSE Linux. CUPS ist stark benutzerorientiert. In vielen Fällen ist es kompatibel mit LPRng oder kann mit relativ geringem Aufwand angepasst werden. LPRng ist im Lieferumfang von SUSE Linux lediglich aus Kompatibilitätsgründen enthalten. Drucker können nach Schnittstelle, z. B. USB oder Netzwerk, und nach Druckersprache unterschieden werden. Stellen Sie beim Kauf eines Druckers sicher, dass dieser über eine von der Hardware unterstützte Schnittstelle und über eine geeignete Druckersprache verfügt. Drucker können basierend auf den folgenden drei Klassen von Druckersprachen kategorisiert werden: PostScript-Drucker PostScript ist die Druckersprache, in der die meisten Druckaufträge unter Linux und Unix vom internen Drucksystem generiert und verarbeitet werden. Diese Sprache ist bereits sehr alt und sehr effizient. Wenn PostScript-Dokumente direkt vom Drucker verarbeitet und im Drucksystem nicht in weiteren Phasen konvertiert werden müssen, reduziert sich die Anzahl der möglichen Fehlerquellen. Da PostScript-Drucker immer mit erheblichen Lizenzkosten verbunden sind, sind diese Drucker in der Regel teurer als Drucker ohne PostScript-Interpreter. Standarddrucker (Sprachen wie PCL und ESC/P) Obwohl diese Druckersprachen ziemlich alt sind, werden sie immer weiter entwickelt, um neue Druckerfunktionen unterstützen zu können. Bei den bekannten Druckersprachen kann das Drucksystem PostScript-Druckaufträge mithilfe von Ghostscript in die entsprechende Druckersprache konvertieren. Diese Verarbeitungsphase wird als „Interpretieren“ bezeichnet. Die gängigsten Sprachen sind PCL, die am häufigsten auf HP-Druckern und ihren Klonen zum Einsatz kommt, und ESC/P, Druckerbetrieb 247

die bei Epson-Druckern verwendet wird. Diese Druckersprachen werden in der Regel von Linux unterstützt und liefern ein annehmbares Druckergebnis. Es kann sein, dass Linux einige neue Drucker mit sehr ausgefallenen Funktionen nicht unterstützt, da die Open-Source-Entwickler möglicherweise an diesen Funktionen noch arbeiten. Mit Ausnahme der von HP entwickelten hpijs-Treiber gibt es derzeit keinen Druckerhersteller, der Linux-Treiber entwickelt und diese LinuxDistributoren unter einer Open-Source-Lizenz zur Verfügung stellt. Die meisten dieser Drucker finden sich im mittleren Preisbereich. Proprietäre Drucker (in der Regel GDI-Drucker) Für proprietäre Drucker sind in der Regel nur ein oder mehrere Windows-Treiber verfügbar. Diese Drucker unterstützen die gängigen Druckersprachen nicht und die von ihnen verwendeten Druckersprachen unterliegen Änderungen, wenn neue Versionen eines Modells auf den Markt gebracht werden. Weitere Informationen hierzu finden Sie in Abschnitt 11.7.1, „Drucker ohne Unterstützung für eine Standard-Druckersprache“ (S. 264). Vor dem Kauf eines neuen Druckers sollten Sie anhand der folgenden Quellen prüfen, wie gut der Drucker, den Sie zu kaufen beabsichtigen, unterstützt wird: • http://cdb.suse.de/ - die SUSE Linux Hardwaredatenbank • http://www.linuxprinting.org/ - die LinuxPrinting.org-Druckerdatenbank • http://www.cs.wisc.edu/~ghost/ - die Ghostscript-Webseite • /usr/share/doc/packages/ghostscript/catalog.devices Liste der enthaltenen Treiber In den Online-Datenbanken wird immer der neueste Linux-Supportstatus angezeigt. Eine Linux-Distribution kann jedoch immer nur die zur Produktionszeit verfügbaren Treiber enthalten. Demnach ist es möglich, dass ein Drucker, der aktuell als „vollständig unterstützt“ eingestuft wird, diesen Status bei der Veröffentlichung der neuesten SUSE Linux-Version nicht aufgewiesen hat. Die Datenbank gibt daher nicht notwendigerweise den richtigen Status, sondern nur eine Annäherung an diesen an.

248

Referenz

11.1 Workflow des Drucksystems
Der Benutzer erstellt einen Druckauftrag. Der Druckauftrag besteht aus den zu druckenden Daten sowie aus Informationen für den Spooler, z. B. dem Namen des Druckers oder dem Namen der Druckwarteschlange und, optional, den Informationen für den Filter, z. B. druckersprezifische Optionen. Für jeden Drucker ist eine dedizierte Druckwarteschlange verfügbar. Der Spooler hält den Druckauftrag in der Warteschlange, bis der gewünschte Drucker bereit ist, Daten zu empfangen. Wenn der Drucker druckbereit ist, sendet der Spooler die Daten über den Filter und das Backend an den Drucker. Der Filter konvertiert die zu druckenden Daten (ASCII, PostScript, PDF, JPEG usw.) in die druckerspezifischen Daten (PostScript, PCL, ESC/P usw.). Die Funktionen des Druckers sind in den PPD-Dateien beschrieben. Eine PPD-Datei enthält druckspezifische Optionen mit den Parametern, die erforderlich sind, um die Optionen auf dem Drucker zu aktivieren. Das Filtersystem stellt sicher, dass die vom Benutzer ausgewählten Optionen aktiviert werden. Wenn Sie einen PostScript-Drucker verwenden, konvertiert das Filtersystem die Daten in druckerspezifische PostScript-Daten. Hierzu ist kein Druckertreiber erforderlich. Wenn Sie einen Nicht-PostScript-Drucker verwenden, konvertiert das Filtersystem die Daten mithilfe von Ghostscript in druckerspezifische Daten. Hierzu ist ein für den Drucker geeigneter Ghostscript-Druckertreiber erforderlich. Das Backend empfängt die druckerspezifischen Daten vom Filter und leitet diese an den Drucker weiter.

11.2 Methoden und Protokolle zum Anschließen von Druckern
Es gibt mehrere Möglichkeiten, einen Drucker an das System anzuschließen. Die Konfiguration des CUPS-Drucksystems unterscheidet nicht zwischen einem lokalen Drucker und einem Drucker, der über das Netzwerk an das System angeschlossen ist. Unter Linux müssen lokale Drucker wie im Handbuch des Druckerherstellers beschrieben angeschlossen werden. CUPS unterstützt serielle, USB-, Parallel- und SCSI-Verbindungen. Weitere Informationen zum Anschließen von Druckern finden Sie im Beitrag CUPS in aller Kürze in der Support-Datenbank unter http://portal .suse.com. Sie finden den Beitrag, indem Sie Cups in das Suchdialogfeld eingeben. Druckerbetrieb 249

WARNUNG: Kabelverbindung zum Computer Vergessen Sie beim Anschließen des Druckers an den Computer nicht, dass während des Betriebs nur USB-Geräte angeschlossen werden können. Vor dem Anschließen anderer Verbindungstypen muss das System heruntergefahren werden.

11.3 Installieren der Software
PPD (PostScript Printer Description, PostScript-Druckerbeschreibung) ist die Computersprache, die die Eigenschaften, z. B. die Auflösung und Optionen wie die Verfügbarkeit einer Duplexeinheit, beschreibt. Diese Beschreibungen sind für die Verwendung der unterschiedlichen Druckeroptionen in CUPS erforderlich. Ohne eine PPD-Datei würden die Druckdaten in einem „rohen“ Zustand an den Drucker weitergeleitet werden, was in der Regel nicht erwünscht ist. Während der Installation von SUSE Linux werden viele PPD-Dateien vorinstalliert, um den Einsatz von Druckern ohne PostScriptUnterstützung zu ermöglichen. Um einen PostScript-Drucker zu konfigurieren, sollten Sie sich zunächst eine geeignete PPD-Datei beschaffen. Viele PPD-Dateien sind im Paket manufacturer-PPDs enthalten, das im Rahmen der Standardinstallation automatisch installiert wird. Siehe Abschnitt 11.6.3, „PPD-Dateien in unterschiedlichen Paketen“ (S. 261) und Abschnitt 11.7.2, „Für einen PostScript-Drucker ist keine geeignete PPD-Datei verfügbar“ (S. 265). Neue PPD-Dateien können im Verzeichnis /usr/share/cups/model/ gespeichert oder dem Drucksystem mithilfe von YaST hinzugefügt werden (siehe „Manuelle Konfiguration“ (S. 252)). Die PPD-Dateien lassen sich anschließend während der Installation auswählen. Seien Sie vorsichtig, wenn ein Druckerhersteller verlangt, dass Sie zusätzlich zum Ändern der Konfigurationsdateien vollständige Softwarepakte installieren sollen. Diese Art der Installation würde erstens dazu führen, dass Sie die Unterstützung von SUSE Linux verlieren, und zweitens können Druckbefehle anders funktionieren und das System ist möglicherweise nicht mehr in der Lage, Geräte anderer Hersteller anzusprechen. Aus diesem Grund wird das Installieren von Herstellersoftware nicht empfohlen.

250

Referenz

11.4 Konfigurieren des Druckers
Wenn Sie den Drucker an den Computer angeschlossen und die Software installiert haben, installieren Sie den Drucker im System. Dies sollte mit den von SUSE Linux zur Verfügung gestellten Werkzeugen ausgeführt werden. Da SUSE Linux großen Wert auf Sicherheit legt, haben Fremdhersteller-Werkzeuge häufig Schwierigkeiten mit den Sicherheitseinschränkungen und verursachen mehr Komplikationen als sie Vorteile bieten. Informationen zur Fehlerbehebung finden Sie in Abschnitt 11.6.1, „CUPS-Server und Firewall“ (S. 258) und Abschnitt 11.6.2, „Änderungen am CUPS-Druckdienst“ (S. 259).

11.4.1 Lokale Drucker
Wenn Sie sich anmelden und ein nicht konfigurierter Drucker erkannt wird, beginnt YaST mit dessen Konfiguration. Hierbei werden dieselben Dialogfelder wie in der folgenden Konfigurationsbeschreibung verwendet. Um den Drucker zu konfigurieren, wählen Sie im YaST-Kontrollzentrum Hardware → Drucker. Dadurch wird das Hauptfenster für die Druckerkonfiguration geöffnet, in dem im oberen Teil die erkannten Geräte aufgelistet sind. Im unteren Teil werden alle bislang konfigurierten Warteschlangen aufgelistet. Wenn Ihr Drucker nicht erkannt wurde, müssen Sie ihn manuell konfigurieren. WICHTIG Wenn der Eintrag Drucker im YaST-Kontrollzentrum nicht verfügbar ist, ist das Paket yast2-printer wahrscheinlich nicht installiert. Um dieses Problem zu beheben, installieren Sie das Paket yast2-printer und starten Sie YaST neu.

Automatische Konfiguration
YaST kann den Drucker automatisch konfigurieren, wenn der Parallel- oder USBAnschluss automatisch eingerichtet werden kann und der angeschlossene Drucker erkannt wird. Die Druckerdatenbank muss zudem die ID-Zeichenkette des Druckers enthalten, den YaST während der automatischen Hardware-Erkennung ermittelt. Wenn sich die Hardware-ID von der Modellbezeichnung unterscheidet, wählen Sie das Modell manuell aus.

Druckerbetrieb

251

Um sicherzustellen, dass alles ordnungsgemäß funktioniert, sollte jede Konfiguration mit der YaST-Funktion zum Drucken einer Testseite geprüft werden. Die Testseite bietet zudem wichtige Informationen zur getesteten Konfiguration.

Manuelle Konfiguration
Wenn die Anforderungen für eine automatische Konfiguration nicht erfüllt sind oder Sie eine benutzerdefinierte Konfiguration vorziehen, müssen Sie den Drucker manuell konfigurieren. Je nachdem, wie erfolgreich die automatische Erkennung ist und wie viele Informationen zum Druckermodell in der Datenbank gefunden werden, kann YaST die richtigen Einstellungen automatisch erkennen oder mindestens eine angemessene Vorauswahl treffen. Die folgenden Parameter müssen konfiguriert werden: Hardwareverbindung (Anschluss) Die Konfiguration des Hardware-Anschlusses ist davon abhängig, ob YaST während der automatischen Hardware-Erkennung den Drucker finden konnte. Wenn YaST das Druckermodell automatisch erkennen kann, ist davon auszugehen, dass der Drucker auf Hardware-Ebene funktioniert und in dieser Hinsicht keine Einstellungen geändert werden müssen. Wenn YaST das Druckermodell nicht automatisch erkennen kann, liegt auf Hardware-Ebene möglicherweise ein Problem mit der Verbindung vor. In diesem Fall muss die Verbindung manuell konfiguriert werden. Klicken Sie im Dialogfeld Druckerkonfiguration auf Hinzufügen, um die manuelle Konfiguration zu starten. Wählen Sie den Druckertyp (z. B. Drucker am USB-Anschluss). Klicken Sie auf Weiter, um das Dialogfeld Druckeranschluss zu öffnen, und wählen Sie das gewünschte Gerät aus. Name der Warteschlange Der Name der Warteschlange wird bei der Eingabe von Druckbefehlen verwendet. Der Name sollte relativ kurz sein und nur Kleinbuchstaben und Zahlen enthalten. Geben Sie den Name für den Druck im nächsten Dialogfeld (Name der Warteschlange) ein. Druckermodell und PPD-Datei Sämtliche druckerspezifischen Parameter, z. B. der zu verwendende GhostscriptTreiber sowie die Druckerfilter-Parameter für den Treiber, sind in einer PPD-Datei gespeichert. Weitere Informationen zu PPD-Dateien finden Sie in Abschnitt 11.3, „Installieren der Software“ (S. 250).

252

Referenz

Für viele Druckermodelle sind mehrere PPD-Dateien verfügbar. indem Sie die Testseite drucken. Abbildung 11. wählt YaST die entsprechende PPD-Datei für den Drucker aus. Für Nicht-PostScript-Modelle werden alle druckerspezifischen Daten vom Ghostscript-Treiber generiert. Wenn für das Modell mehrere PPD-Dateien verfügbar sind. wenn mehrere Ghostscript-Treiber mit dem entsprechenden Modell funktionieren. beispielsweise. Aus diesem Grund ist die Treiberkonfiguration der wichtigste Faktor beim Festlegen der Ausgabequalität. Druckerbetrieb 253 . Wenn Sie im nächsten Dialogfeld (Druckermodell) einen Hersteller und ein Modell auswählen. indem Sie das gesamte Papier entfernen und anschließend den Test über YaST stoppen. Wenn die Ausgabe nicht akzeptabel ist und beispielsweise mehrere Seiten fast leer sind. Sie können die ausgewählte PPD-Datei im nächsten Dialogfeld mit der Option Bearbeiten ändern.1 Auswählen des Druckermodells Sie sollten die vorgenommenen Einstellungen immer prüfen. wählt YaST standardmäßig eine dieser Dateien aus (normalerweise die als empfohlen markierte Datei). sollten Sie zunächst den Drucker anhalten. können Sie weitere (durch die PPD-Datei zur Verfügung gestellte) Optionen nach Auswahl von Bearbeiten ändern. Die Qualität des Ausdrucks ist sowohl vom Typ des ausgewählten Ghostscript-Treibers (PPD-Datei) als auch von den für diesen angegebenen Optionen abhängig. Falls erforderlich.

Der zu verwendende 254 Referenz . Im Folgenden finden Sie einige ausführlichere Informationen zu diesen Protokollen: socket Socket bezieht sich auf eine Verbindung.4. z. 11.einige von diesen sogar gleichzeitig. Wählen Sie hierzu UNKNOWN MANUFACTURER als Druckerhersteller. Ein Beispiel für einen Geräte-URI ist socket://host-printer:9100/. Linux-Treiber werden leider nur sehr selten zur Verfügung gestellt. oder weil sie bestimmte Funktionen zur Verfügung stellen möchten. die ID der Druckwarteschlange. die in den Standard noch nicht ordnungsgemäß implementiert wurden. ohne dass zuvor ein Data-Handshake erfolgt.2 Netzwerkdrucker Ein Netzwerkdrucker kann unterschiedliche Protokolle . CUPS unterstützt die Protokolle socket. die im Standard nicht enthalten sind. dass alle Protokolle problemlos mit Linux funktionieren. Obwohl die meisten der unterstützten Protokolle standardisiert sind. Gegenwärtig können Sie nicht davon ausgehen.Wenn die Druckerdatenbank keinen Eintrag für Ihr Modell enthält. LPD (Line Printer Daemon) Das bewährte LPD-Protokoll wird in RFC 1179 beschrieben. Um dennoch eine funktionale Konfiguration zu erhalten. um beliebige Namen als Druckwarteschlange zu akzeptieren. B. LPD. damit der Drucker mit einer der Standard-Druckersprachen druckt. Erweiterte Einstellungen Die hier angegebenen Einstellungen müssen in der Regel nicht geändert werden. Mit diesem Protokoll werden einige druckauftragsbezogene Daten. Einige der am häufigsten verwendeten Socket-Ports sind 9100 oder 35. Hersteller stellen in diesem Fall nur für wenige Betriebssysteme Treiber zur Verfügung und eliminieren so die Schwierigkeiten mit diesen Systemen. IPP und smb. Die Implementierungen diverser Druckerhersteller sind flexibel genug. erweitern (ändern) einige Hersteller den Standard. vor den eigentlichen Druckdaten gesendet. indem Sie PPD-Datei zur Datenbank hinzufügen wählen oder eine Sammlung generischer PPD-Dateien verwenden. weil sie Systeme testen. in der die Daten an ein Internet-Socket gesendet werden. müssen Sie daher möglicherweise mit den verschiedenen Optionen experimentieren. Daher muss die Druckwarteschlange beim Konfigurieren des LPD-Protokolls für die Datenübertragung angegeben werden. können Sie entweder eine neue PPD-Datei hinzufügen.

Die Portnummer für IPP lautet 631. LPT1.Name müsste ggf. smb://Benutzer:Passwort@Host/Drucker und smb://Server/Drucker. der Bestandteil des Pakets nmap ist. Das vom Drucker unterstützte Protokoll muss vor der Konfiguration ermittelt werden. Beispiele für Geräte-URIs sind smb://Benutzer:Passwort@Arbeitsgruppe/Server/Drucker. um die Sicherheitseinschränkungen in CUPS handzuhaben (siehe Abschnitt 11. YaST vereinfacht die Konfiguration und ist bestens ausgestattet.com. verwendet.6. Dies ist das bevorzugte Protokoll für eine Weiterleitungswarteschlange zwischen zwei CUPS-Servern. Es werden häufig Bezeichnungen wie LPT.suse. CUPS verwendet IPP für die interne Datenübertragung. SMB (Windows-Freigabe) CUPS unterstützt auch das Drucken auf freigegebenen Druckern unter Windows. Weitere Informationen und Richtlinien zur Installation von CUPS im Netzwerk finden Sie im Beitrag CUPS in aller Kürze in der Support-Datenbank unter http://portal . LP1 o. nmap überprüft einen Host auf offene Ports. IPP (Internet Printing Protocol) IPP ist ein relativ neues Protokoll (1999). 259)). ä. Ein Beispiel für einen Gerät-URI ist lpd://host-printer/LPT1. Eine LPD-Warteschlange kann auch auf einem anderen Linux. Druckerbetrieb 255 .oder Unix-Host im CUPS-System konfiguriert werden. 138 und 139. „Änderungen am CUPS-Druckdienst“ (S. Das für diesen Zweck verwendete Protokoll ist SMB.9100-10000 printerIP Konfigurieren von CUPS im Netzwerk unter Verwendung von YaST Netzwerkdrucker sollten mit YaST konfiguriert werden. im Druckerhandbuch angegeben sein. ist der Name der Druckwarteschlange erforderlich. Um IPP ordnungsgemäß konfigurieren zu können. das auf dem HTTP-Protokoll basiert. Mit IPP können mehr druckauftragsbezogene Daten übertragen werden als mit den anderen Protokollen. Die Portnummer für einen LPD-Dienst lautet 515. Beispiele für Geräte-URIs sind ipp://host-printer/ps und ipp://host-cupsserver/printers/ps. SMB verwendet die Portnummern 137. können Sie das Protokoll mit dem Befehl nmap ermitteln. Wenn der Hersteller die erforderlichen Informationen nicht zur Verfügung stellt. Beispiel: nmap -p 35.2.515.137-139.631.

Diese Optionen können (je nach verwendetem Druckwerkzeug) für jeden Druckauftrag 256 Referenz . Konfigurieren mit Befehlszeilenoptionen CUPS kann alternativ auch mit Befehlszeilenoptionen wie lpadmin und lpoptions konfiguriert werden.168.ppd.Starten Sie die Druckerkonfiguration und klicken Sie auf Hinzufügen. probieren Sie die Option Direkt auf Netzwerkdrucker drucken aus und fahren Sie gemäß den lokalen Anforderungen fort.gz -E Im folgenden Beispiel wird ein Netzwerkdrucker konfiguriert: lpadmin -p ps -v socket://192.1. dass Sie die PPD-Datei und den Namen des Geräts kennen müssen. z. Während der Druckerkonfiguration werden bestimmte Optionen standardmäßig gesetzt. Der vollständige URI könnte beispielsweise wie folgt lauten: parallel:/dev/lp0 (an den ersten Parallelanschluss angeschlossener Drucker) oder usb:/dev/usb/lp0 (erster erkannter Drucker. usb.gz -E Weitere Informationen hierzu sowie weitere Optionen für lpadmin finden Sie auf der Manualpage für den Befehl lpadmin(1). Sie benötigen einen Geräte-URI (Uniform Resource Identifier). Das bedeutet. Fügen Sie eine Druckwarteschlange unter Verwendung der folgenden Syntax hinzu: lpadmin -p queue -v device-URI \ -P PPD-file -E Das Gerät (-v) ist anschließend als Warteschlange (-p) verfügbar und verwendet die angegebene PPD-Datei (-P). wenn Sie den Drucker manuell konfigurieren möchten. der an den USB-Anschluss angeschlossen ist).ppd. Mit lpadmin kann der CUPS-Serveradministrator Klassen und Druckwarteschlangen hinzufügen. Verwenden Sie nicht -E als erste Option. entfernen und verwalten. Zur Aktivierung des Druckers muss die Option -E wie im folgenden Beispiel dargestellt verwendet werden: lpadmin -p ps -v parallel:/dev/lp0 -P \ /usr/share/cups/model/Postscript. B. der aus einem Backend. Falls Sie keine anderen Anweisungen von Ihrem Netzwerkadminstrator erhalten haben. Für alle CUPS-Befehle legt die Option -E als erstes Argument die Verwendung einer verschlüsselten Verbindung fest.0:9100/ -P \ /usr/share/cups/model/Postscript-level1. und Parametern wie /dev/usb/lp0 besteht.

B. Um den Druckvorgang über die Befehlszeile zu starten. Es ist nicht erforderlich. geben Sie lp -d Name_der Warteschlange Dateiname ein und ersetzen die entsprechenden Namen für Name_der_Warteschlange und Dateiname. 11. z. da Sie unter Verwendung der verfügbaren Warteschlangen aus der Anwendung heraus drucken können sollten. Einige Anwendungen erfordern für den Druckvorgang den Befehl lp. root-Einstellungen werden in /etc/cups/ lpoptions geschrieben. den Drucker für eine bestimmte Anwendung neu zu konfigurieren. Es ist auch möglich. lp -d Name_der_Warteschlange.5 Konfiguration für Anwendungen Anwendungen verwenden die vorhandenen Druckwarteschlangen auf dieselbe Weise wie Befehlszeilenwerkzeuge. werden die Einstellungen in ~/.lpoptions geschrieben. diese Standardoptionen mit YaST zu ändern.geändert werden. Geben Sie in diesem Fall den richtigen Befehl in das Druckdialogfeld der Anwendung ohne Angabe des Dateinamens ein. Legen Sie die Standardoptionen mithilfe der Befehlszeilenwerkzeuge wie folgt fest: 1 Zeigen Sie zunächst alle Optionen an: lpoptions -p queue -l Beispiel: Resolution/Output Resolution: 150dpi *300dpi 600dpi Die aktivierte Standardoption wird durch das vorangehende Sternchen (*) gekennzeichnet. Damit dies Druckerbetrieb 257 . 2 Ändern Sie die Option mit lpadmin: lpadmin -p queue -o Resolution=600dpi 3 Prüfen Sie die neue Einstellung: lpoptions -p queue -l Resolution/Output Resolution: 150dpi 300dpi *600dpi Wenn ein normaler Benutzer den Befehl lpoptions ausführt.

6 Sonderfunktionen in SUSE Linux Für SUSE Linux wurden mehrere CUPS-Funktionen angepasst.1 CUPS-Server und Firewall Es gibt mehrere Möglichkeiten. Wenn die Anwendung ordnungsgemäß koniguriert ist. Dieser Ansatz wird in der Regel jedoch nicht empfohlen. in dem Sie in diesem Dialogfeld eine Warteschlange wählen und andere Druckoptionen festlegen können. 1. wird vom Verhalten der Anwendung selbst festgelegt. Andernfalls können Sie den Druckbefehl nicht eingeben. Werkzeuge wie xpp und das KDE-Programm kprinter bieten eine grafische Oberfläche für die Auswahl der Warteschlangen und zum Festlegen der CUPS-Standardoptionen und druckerspezifischen Optionen. lp oder entsprechende Bibilotheksaufrufe anderer Programme können die Druck- 2. Im Folgenden werden einige der wichtigsten Änderungen beschrieben. aktivieren Sie die Option Über externes Programm drucken. wenn sich die Konfiguration des Netzwerkservers ändert. Welcher der beiden Befehle gewählt wird. indem Sie kprinter oder kprinter --stdin als Druckbefehl in den Druckdiaolgfeldern dieser Anwendungen angeben. Sie können kprinter als Standardschnittstelle zum Drucken von Nicht-KDEAnwendungen verwenden. Druckaufträge können auch direkt an einen Netzwerkserver weitergeleitet werden. dass zwischen den anwendungsspezifischen Druckereinstellungen und denen von kprinter keine Konflikte auftreten und dass die Druckoptionen nur über kprinter geändert werden. Dies erfordert. da alle Client-Computer neu konfiguriert werden müssen. CUPS als Client eines Netzwerkservers zu konfigurieren. 258 Referenz . nachdem es aktiviert wurde. über die alle Druckaufträge an den entsprechenden Netzwerkserver weitergeleitet werden (diese Warteschlange bezeichnet man auch als Weiterleitungswarteschlange). Für diesen Konfigurationstyp wird kein lokaler CUPS-Daemon ausgeführt.in KDE-Programmen funktioniert. 11. die über die PPD-Datei zur Verfügung gestellt werden. 11. Sie können für jede Warteschlange auf dem Netzwerkserver eine lokale Warteschlange konfigurieren. sollte sie bei jeder Ausgabe eines Druckauftrags das Dialogfeld „kprinter“ öffnen.6.

aufträge direkt an den Netzwerkserver senden. Dies setzt jedoch voraus. wenn Sie gleichzeitig auf einem lokalen Drucker drucken möchten. indem er die lokalen NetzwerkHosts aktiv durchsucht oder alle Warteschlangen manuell konfiguriert. dass die Firewall für eingehende Pakete an Port 631/UDP (IPP-Client) durchlässig ist. da der CUPS-Druckdienst nicht mit uneingeDruckerbetrieb 259 . cupsd wird als Benutzer lp ausgeführt Beim Start ändert sich cupsd vom Benutzer root in den Benutzer lp. 116). Standardmäßig werden IPP-Broadcasts daher in der externen Zone verweigert. Weitere Informationen zur Firewall-Konfiguration finden Sie unter „Konfiguration mit YaST“ (S. Das Öffnen eines Ports zum Konfigurieren des Zugriffs auf entfernte Warteschlangen in der externen Zone kann ein Sicherheitsrisiko darstellen. Aufgrund der am Anfang dieses Abschnitts erwähnten Gründe wird diese Methode nicht empfohlen. der dann möglicherweise von den Benutzern angenommen wird. Dies ist die beste CUPS-Konfiguration für das Drucken über entfernte CUPSServer.2 Änderungen am CUPS-Druckdienst Diese Änderungen wurden ursprünglich in SUSE Linux 9. Diese Voraussetzung ist automatisch erfüllt. Diese Konfiguration funktioniert jedoch nicht. dass der Auftrag an einen lokalen Server gesendet wird. um festzustellen.1 vorgenommen. dass ein Angreifer IPP-Broadcast-Pakete mit Warteschlangen sendet und der lokale Daemon auf eine gefälschte Warteschlange zugreift. um die verfügbaren Warteschlangen bekannt zu geben. ob diese den IPP-Dienst anbieten. Dies bietet einen viel höheren Grad an Sicherheit. da ein Angreifer einen Server anbieten kann. Es besteht jedoch das Risiko. Wenn die Warteschlange dann mit demselben Namen wie die andere Warteschlange auf dem lokalen Server angezeigt wird. die andere Netzwerkserver senden.6. Der CUPS-Daemon kann auf IPP-Broadcast-Pakete lauschen. oder durch Lauschen auf IPP-Broadcast-Pakete. glaubt der Eigentümer des Auftrags möglicherweise. 11. wenn Sie Ihren Computer in der internen Firewall-Zone konfiguriert haben. YaST kann CUPS-Server mit zwei Methoden ermitteln: Durch Durchsuchen der lokalen Netzwerk-Hosts. 3. während er in Wirklichkeit an den Server des Angreifers geleitet wird. Alternativ kann der Benutzer CUPS-Server erkennen.

Geben Sie hierzu als root Folgendes ein: lppasswd -g sys -a CUPS-admin-name Diese Einstellung ist außerdem wichtig. ist /etc/printcap ein symbolischer Link. weiter ordnungsgemäß funktionieren.Allow Deny From All 260 Referenz . Stattdessen muss die CUPS-spezifische Authentifizierung über /etc/cups/passwd. Dateien in /etc/ zu erstellen. Verwenden Sie stattdessen rccups restart. sondern nur mit den für den Druckdienst erforderlichen Berechtigungen ausgeführt wird. Daher kann cupsd mit dem Befehl rccups reload nicht neu geladen werden. Die Authentifizierung (die Passwortüberprüfung) kann nicht über /etc/shadow ausgeführt werden. Die Standardeinstellungen in /etc/cups/cupsd. kann Port 631 nicht geöffnet werden.md5 verwendet werden. dass Anwendungen. kann /etc/printcap nicht generiert werden. Zu diesem Zweck muss ein CUPS-Administrator mit der CUPS-Administrationsgruppe sys und einem CUPS-Passwort in /etc/cups/passwd. der auf /etc/cups/ printcap verweist. Daher generiert cupsd die Datei /etc/cups/printcap. die an cupsd gesendet werden.md5 eingegeben werden. da lp keinen Zugriff auf /etc/shadow hat. Um sicherzustellen. Wenn cupsd als lp ausgeführt wird.conf lauten wie folgt: BrowseAllow @LOCAL BrowseDeny All und <Location /> Order Deny. da lp nicht berechtigt ist. Wenn cupsd als lp ausgeführt wird. die Warteschlangennamen in /etc/printcap nur lesen können. Allgemeinere Funktionalität für BrowseAllow und BrowseDeny Die festgelegten Zugriffsberechtigungen für BrowseAllow und BrowseDeny gelten für alle Pakettypen. wenn Sie das Web-Administrations-Frontend von CUPS oder das Werkzeug für die Druckeradministration von KDE verwenden möchten.schränkten Berechtigungen.

deren IFF_POINTOPOINT-Flags nicht gesetzt sind) und zum selben Netzwerk wie der CUPS-Server gehören. Zu diesem Zweck generiert die YaST-Druckerkonfiguration eine Datenbank mit den Hersteller.0.0. Die YaST-Druckerkonfiguration erkennt die Änderungen und generiert die Hersteller.2 Allow From @LOCAL </Location> Auf diese Weise können nur LOCAL-Hosts auf cupsd auf einem CUPS-Server zugreifen. Pakete von allen anderen Hosts werden sofort abgelehnt. 259) und „Allgemeinere Funktionalität für BrowseAllow und BrowseDeny“ (S. die dem Hersteller und dem Modell entsprechen. die aus den PPD-Dateien extrahiert werden. erhalten Sie die PPD-Dateien. die nur PPD-Dateien und keine weiteren Informationsquellen verwendet. die auf dem System in den PPD-Dateien unter /usr/share/ cups/model/ enthalten sind. 260) sind wichtige Voraussetzungen für diese Funktion.3 PPD-Dateien in unterschiedlichen Paketen Die YaST-Druckerkonfiguration richtet die Warteschlangen für CUPS auf dem System nur unter Verwendung der in /usr/share/cups/model/ installierten PPDDateien ein. Wenn Sie beispielsweise Druckerbetrieb 261 . LOCAL-Hosts sind Hosts. da andernfalls die Sicherheit für eine automatische Aktivierung von cupsd nicht ausreichend wäre. Um die geeigneten PPD-Dateien für das Druckermodell zu finden. Die Einstellungen in „cupsd wird als Benutzer lp ausgeführt“ (S. Die Konfiguration.und Modelldatenbank neu. deren IP-Adressen zu einer Nicht-PPP-Schnittstelle (Schnittstellen.6.1 Allow From 127.und Modelldaten. vergleicht YaST während der Hardware-Erkennung den Hersteller und das Modell mit den Herstellern und Modellen.0. 11.Allow From 127. hat den Vorteil. cupsd standardmäßig aktiviert In einer Standardinstallation ist cupsd automatisch aktiviert und ermöglicht so den Zugriff auf die Warteschlangen des CUPS-Netzwerkservers. Wenn Sie in der Liste der Hersteller und Modelle einen Drucker auswählen. dass die PPD-Dateien in /usr/share/cups/model/ nach Bedarf geändert werden können. ohne dass ein weiteres Eingreifen erforderlich ist.0.

ppd.gz • /usr/share/cups/model/Postscript-level2. Foomatic . Dieser Filter und die entsprechenden Gimp-Print-PPD-Dateien befinden sich im Paket cups-drivers-stp. sind die Foomatic-PPD-Dateien im Paket cups-drivers oder die Gimp-Print-PPD-Dateien im Paket cups-drivers-stp in der Regel nicht erforderlich. Foomatic/Ghostscript driver und *cupsFilter: . Die entsprechenden FoomaticPPD-Dateien haben die Einträge *NickName: ..nur mit PostScript-Druckern arbeiten. foomatic-rip.. wenn eine Foomatic-PPD-Datei mit dem Eintrag *NickName: . um eine optimale Konfiguration der Drucker zu erzielen. Diese PPD-Dateien befinden sich im Paket cups-drivers.. Die PPD-Dateien für die PostScript-Drucker können direkt in /usr/share/cups/model/ kopiert werden (wenn sie nicht bereits im Paket manufacturer-PPDs vorhanden sind).gz PPD-Dateien im Paket cups-drivers Der Foomatic-Druckerfilter foomatic-rip wird in der Regel zusammen mit Ghostscript für Nicht-PostScript-Drucker verwendet. rastertoprinter. CUPS+Gimp-Print und *cupsFilter: ...ppd.. (recommended) dem Druckermodell entspricht und das Paket manufacturer-PPDs keine geeignetere PPD-Datei enthält.. YaST bevorzugt eine Foomatic-PPD-Datei. Gimp-Print-PPD-Dateien im Paket cups-drivers-stp Für viele Nicht-PostScript-Drucker kann an Stelle von foomatic-rip der CUPSFilter rastertoprinter verwendet werden. CUPS-PPD-Dateien im Paket cups Die generischen PPD-Dateien im Paket cups wurden durch angepasste Foomatic-PPDDateien für PostScript-Drucker der Level 1 und Level 2 ergänzt: • /usr/share/cups/model/Postscript-level1.. 262 Referenz ..... Die GimpPrint-PPD-Dateien befinden sich in /usr/share/cups/model/stp/ und haben die Einträge *NickName: .

da diese Datei die Verwendung aller Funktionen des PostScript-Druckers ermöglicht..PPD-Dateien von Druckerherstellern im Paket manufacturer-PPDs Das Paket manufacturer-PPDs enthält PPD-Dateien von Druckerherstellern. sondern die Modellbezeichnungen in der PPD-Datei beispielsweise in Form von Funprinter 1000 series angegeben werden. wenn das Paket manufacturer-PPDs nur eine PPD-Datei für ähnliche Modelle enthält. YaST bevorzugt eine PPD-Datei aus dem Paket manufacturer-PPDs. Des Weiteren unterstützt der Drucker möglicherweise standardmäßig kein PostScript. • Die Verwendung der Foomatic-PostScript-PPD-Datei wird nicht empfohlen.. da die PostScript-Unterstützung nur als optionales Modul verfügbar ist. die unter einer ausreichend freien Lizenz veröffentlicht werden. PostScript-Drucker sollten mit der entsprechenden PPD-Datei des Druckerherstellers konfiguriert werden. dass das Druckermodell im PostScript-Modus nicht effizient genug arbeitet. wenn für die einzelnen Modelle einer Modellserie keine separaten PPD-Dateien vorhanden sind. Wenn eine PPD-Datei im Paket manufacturer-PPDs für einen PostScript-Drucker geeignet ist. Der Grund dafür ist möglicherweise. Druckerbetrieb 263 . YaST diesen aus den genannten Gründen aber nicht konfigurieren kann. müssen Sie das entsprechende Druckermodell manuell in YaST auswählen. die dem Druckermodell ebenfalls entspricht. Foomatic/Postscript (recommended) vorhanden. wenn folgende Bedingungen erfüllt sind: • Der während der Hardware-Erkennung ermittelte Hersteller und das Modell entsprechen dem Hersteller und dem Modell in einer PPD-Datei im Paket manufacturer-PPDs. B. weil es in diesem Modus beispielsweise aufgrund von zu wenig Speicher unzuverlässig oder wegen seines zu schwachen Prozessors zu langsam arbeitet. • Die PPD-Datei im Paket manufacturer-PPDs ist die einzige geeignete PPDDatei für das Druckermodell oder es ist eine Foomatic-PPD-Datei mit dem Eintrag *NickName: . z. YaST verwendet demzufolge in den folgenden Fällen keine PPD-Datei aus dem Paket manufacturer-PPDs: • Die PPD-Datei im Paket manufacturer-PPDs entspricht nicht dem Hersteller und dem Modell. Dies kann der Fall sein.

spezielle Treibersoftware zu installieren und zu konfigurieren oder Treiber-Updates zu beschaffen.11. die keine der geläufigen Druckersprachen unterstützen und nur mit speziellen Steuersequenzen adressiert werden können. einen proprietären Linux-Treiber zum Funktionieren zu bringen. einen unterstützten Drucker zu kaufen. GDI ist eine von Microsoft für Grafikgeräte entwickelte Programmierschnittstelle. nicht abhängig von einer speziellen Drucksystemversion oder einer bestimmten Hardwareplattform. die aufgrund neuer Entwicklungen im Drucksystem benötigt würden. 264 Referenz . werden als GDI-Drucker bezeichnet. Der Betrieb einiger Drucker kann sowohl im GDI-Modus als auch in einer der StandardDruckersprachen ausgeführt werden. Der Nachteil proprietärer Druckertreiber ist.7. Das eigentliche Problem ist nicht die Programmierschnittstelle. Einige Hersteller stellen für ihre GDI-Drucker proprietäre Treiber zur Verfügung. die eine Standard-Druckersprache unterstützen. 11. Dadurch wäre das Treiberproblem ein für alle Mal aus der Welt geschafft und es wäre nicht mehr erforderlich. Im Gegensatz dazu sind Drucker.1 Drucker ohne Unterstützung für eine Standard-Druckersprache Drucker. sondern die Tatsache. Anstatt Zeit darauf zu verwenden. dass es keine Garantie gibt. ist es möglicherweise kosteneffektiver. dass GDI-Drucker nur mit der proprietären Druckersprache des jeweiligen Druckermodells adressiert werden können. für die der Hersteller einen Treiber zur Verfügung stellt. Diese Drucker funktionieren nur mit den Betriebssystemversionen. dass diese mit dem installierten Drucksystem funktionieren und für die unterschiedlichen Hardwareplattformen geeignet sind.7 Fehlerbehebung In den folgenden Abschnitten werden einige der am häufigsten auftretenden Probleme mit der Druckerhardware und -software sowie deren Lösungen oder Umgehung beschrieben.

„/etc/modprobe.7. sollte es möglich sein. Wenn Interrupt 7 frei ist. entpacken Sie sie mit unzip. die auf die E/A-Adressen 378 und 278 (hexadezimal) gesetzt sind. Version 4.exe) zur Verfügung gestellt wird. 266) dargestellten Eintrag aktiviert Druckerbetrieb 265 .conf ein. 11. oder eine geeignete PPD-Datei von der Webseite des Druckerherstellers herunterzuladen. Prüfen Sie anschließend mit dem Dienstprogramm cupstestppd.2 Für einen PostScript-Drucker ist keine geeignete PPD-Datei verfügbar Wenn das Paket manufacturer-PPDs für einen PostScript-Drucker keine geeignete PPD-Datei enthält. SPP oder Output Only • DMA: deaktiviert Wenn der Drucker trotz dieser Einstellungen über den Parallelanschluss nicht angesprochen werden kann. Wenn das Dienstprogramm „FAIL“ zurückgibt. eine geeignete PPD-Datei an. den Drucker direkt an den ersten Parallelanschluss anzuschließen und im BIOS die folgenden Einstellungen für Parallelanschlüsse auszuwählen: • I/O address: 378 (hexadezimal) • Interrupt: irrelevant • Mode: Normal. Wenn die PPD-Datei als Zip-Archiv (. Die von cupstestppd protokollierten Problempunkte müssen behoben werden.zip) oder als selbstextrahierendes Zip-Archiv (. kann er mit dem in Beispiel 11. ob die PPD-Datei der „Adobe PostScript-PDF-Format-Spezifikation. Wenn zwei Parallelanschlüsse vorhanden sind. Lesen Sie zunächst die Lizenzvereinbarung für die PPD-Datei. geben Sie die E/A-Adresse explizit in Übereinstimmung mit der Einstellung im BIOS in Form von 0x378 in /etc/modprobe.3 Parallelanschlüsse Die sicherste Methode ist. geben Sie diese in Form von 0x378. Fordern Sie beim Druckerhersteller ggf. die PPD-Datei von der Treiber-CD des Druckerherstellers zu verwenden.3. “ entspricht.conf: Interrupt-Modus für den ersten Parallelanschluss“ (S.7.1. sind die Fehler in den PPD-Dateien schwerwiegend und verursachen wahrscheinlich größere Probleme.11.0x278 ein.

Wenn lpd reagiert. ist er entweder nicht aktiv oder es liegen grundlegende Netzwerkprobleme vor. um zu sehen. Wenn dies funktioniert. vorausgesetzt. ist lpd entweder nicht aktiv oder es liegen grundlegende Netzwerkprobleme vor. Wenn Sie eine Antwort wie 266 Referenz . ändern.1 /etc/modprobe. Geben Sie als root den folgenden Befehl ein. Beispiel 11.7. TCP/IP-Netzwerk prüfen Das TCP/IP-Netzwerk und die Namensauflösung müssen funktionieren. verwenden Sie den Polling-Modus mit irq=none. Konfigurieren Sie den Drucker zu Testzwecken als lokalen Drucker. Prüfen Sie vor dem Aktivieren des Interrupt-Modus die Datei /proc/ interrupts. um zu testen. Es werden nur die aktuell verwendeten Interrupts angezeigt. Dies kann sich je nachdem. warum das Drucken in der queue auf host nicht möglich ist. Wenn Sie sich diesbezüglich nicht sicher sind. welche Hardwarekomponenten aktiv sind. Entfernten lpd prüfen Geben Sie den folgenden Befehl ein. welche Interrupts bereits verwendet werden. sollte die Antwort zeigen.4 Netzwerkdrucker-Verbindungen Netzwerkprobleme identifizieren Schließen Sie den Drucker direkt an den Computer an.conf: Interrupt-Modus für den ersten Parallelanschluss alias parport_lowlevel parport_pc options parport_pc io=0x378 irq=7 11. um einen (möglicherweise sehr langen) Statusbericht für queue auf dem entfernten host abzufragen. der entsprechende lpd ist aktiv und der Host akzeptiert Abfragen: echo -e "\004queue" \ | netcat -w 2 -p 722 host 515 Wenn lpd nicht antwortet. Der Interrupt für den Parallelanschluss darf von keinem anderen Gerät verwendet werden. ob zu lpd (Port 515) auf host eine TCP-Verbindung hergestellt werden kann: netcat -z host 515 && echo ok || echo failed Wenn die Verbindung zu lpd nicht hergestellt werden kann.werden. werden die Probleme netzwerkseitig verursacht.

echo -en "\r" \ | lp -d queue -h host Druckerbetrieb 267 . In diesem Fall sollte nichts gedruckt werden. ist cupsd entweder nicht aktiv oder es liegen grundlegende Netzwerkprobleme vor.3 Broadcast vom CUPS-Netzwerkserver ipp://host. lpstat -h host -l -t gibt einen (möglicherweise sehr langen) Statusbericht für alle Warteschlangen auf host zurück.2 Fehlermeldung vom lpd lpd: your host does not have line printer access lpd: queue does not exist printer: spooling disabled printer: printing disabled Entfernten cupsd prüfen Der CUPS-Netzwerkserver sollte Informationen über seine Warteschlangen standardmäßig alle 30 Sekunden an UDP-Port 631 via Broadcast senden. Beispiel 11. Beispiel 11.domain:631/printers/queue Mit dem folgenden Befehl können Sie testen.2. kill $PID Wenn ein CUPS-Netzwerkserver vorhanden ist. 267) dargestellt.die in Beispiel 11. dass der entsprechende cupsd aktiv ist und der Host Abfragen akzeptiert. Möglicherweise wird eine leere Seite ausgegeben. „Fehlermeldung vom lpd“ (S. der Informationen über Broadcasting sendet. ob im Netzwerk ein CUPS-Netzwerkserver vorhanden ist. Mit dem nächsten Befehl können Sie testen. der aus einem einzigen CR-Zeichen (CarriageReturn) besteht. netcat -u -l -p 631 & PID=$! . „Broadcast vom CUPSNetzwerkserver“ (S. erscheint die Ausgabe wie in Beispiel 11. 267) erhalten. Demzufolge kann mit dem folgenden Befehl getestet werden. sleep 40 . ob die Warteschlange auf Host einen Druckauftrag akzeptiert.3. wird das Problem durch den entfernten lpd verursacht. ob mit cupsd (Port 631) auf host eine TCP-Verbindung hergestellt werden kann: netcat -z host 631 && echo ok || echo failed Wenn die Verbindung zu cupsd nicht hergestellt werden kann. vorausgesetzt.

kann dieser TCP-Port in der Regel mit dem Dienstprogramm nmap aus dem Paket nmap ermittelt werden. wenn die Print Server Box einige Zeit eingeschaltet ist. Auf diese Weise wird die Print Server Box auf einen Konvertierer zwischen den unterschiedlichen Formen der Datenübertragung (TCP/IP-Netzwerk und lokale Druckerverbindung) reduziert. Sie haben aber die Möglichkeit. nmap prüft standardmäßig nur eine bestimmte Anzahl der allgemein bekannten Ports. den Spooler in der Print Server Box zu umgehen. wenn sie viele Druckaufträge bearbeiten müssen.2. dass der an die Print Server Box angeschlossenen Drucker über TCP-Socket an Port 9100 angesprochen werden kann. Beispiel: nmap IP-Adresse gibt die folgende Ausgabe für eine Print Server Box zurück: Port 23/tcp 80/tcp 515/tcp 631/tcp 9100/tcp State open open open open open Service telnet http printer cups jetdirect Diese Ausgabe gibt an. 254). verwenden Sie den Befehl nmap -p Ausgangs-Port-Ziel-Port IP-Adresse. um zu testen. indem Sie den an die Print Server Box angeschlossenen Drucker über TCP-Socket direkt ansprechen.4. verursachen gelegentlich Probleme. Siehe Abschnitt 11. Da dies durch den Spooler in der Print Server Box verursacht wird. die in /usr/ share/nmap/nmap-services aufgeführt sind. Weitere Informationen hierzu finden Sie auf der Manualpage für den Befehl nmap. können Sie nichts dagegen tun. müssen Sie den TCP-Port der Print Server Box kennen. Geben Sie einen Befehl ein wie echo -en "\rHello\r\f" | netcat -w 1 IP-address port cat file | netcat -w 1 IP-address port um Zeichenketten oder Dateien direkt an den entsprechenden Port zu senden. ob der Drucker auf diesem Port angesprochen werden kann. Dies kann einige Zeit dauern. 268 Referenz . Um alle möglichen Ports zu überprüfen. „Netzwerkdrucker“ (S. die in einer Print Server Box ausgeführt werden. Um diese Methode verwenden zu können. Wenn der Drucker eingeschaltet und an die Print Server Box angeschlossen ist.Fehlerbehebung für einen Netzwerkdrucker oder eine Print Server Box Spooler.

11. 11.cupsd den Druckauftrag als abgeschlossen betrachtet. sobald dieser an den Server-cupsd weitergeleitet wurde. wenn das CUPS-Backend die Datenübertragung an den Empfänger (Drucker) abgeschlossen hat. um die Auftragsnummer auf dem Server zu ermitteln. die für den Drucker besser geeignet ist. usb oder socket. Da weitere Versuche vergeblich wären.7 Durchsuchen von CUPS: Löschen von Druckaufträgen Wenn ein CUPS-Netzwerkserver seine Warteschlangen den Client-Hosts via Brwosing bekannt macht und auf den Host-Clients ein geeigneter lokaler cupsd aktiv ist. Druckerbetrieb 269 . z.7. da der Client.7. Da ein Druckauftrag in der Regel sofort weitergeleitet wird. ob und wie viele Versuche sinnvoll sind. Um einen Druckauftrag auf dem Server zu löschen. wählen Sie eine andere PPD-Datei. akzeptiert der Client-cupsd Druckaufträge von Anwendungen und leitet sie an den cupsd auf dem Server weiter. wenn der Drucker die druckerspezifischen Daten nicht drucken kann. muss er das Drucken mit dem Befehl /usr/bin/enable wieder aktivieren. B. bis die Datenübertragung als nicht möglich abgebrochen wird. meldet das CUPS-Backend. z. Nachdem der Systemadministrator das Problem behoben hat.6 Deaktivierte Warteschlangen Wenn die Datenübertragung zum Empfänger auch nach mehreren Versuchen nicht erfolgt. Wenn die weitere Verarbeitung auf dem Empfänger nicht erfolgt. wird diesem eine neue Auftragsnummer zugewiesen. wird dies vom Drucksystem nicht erkannt.7.11. deaktiviert cupsd das Drucken für die entsprechende Warteschlange. dem Drucksystem (an cupsd) einen Fehler. B. Wenn der Drucker die druckerspezifischen Daten nicht drucken kann. geben Sie einen Befehl wie lpstat -h Print-Server -o ein. Daher unterscheidet sich die Auftragsnummer auf dem Client-Host von der auf dem Server. Das Backend entscheidet. kann er mit der Auftragsnummer auf dem Client-Host nicht gelöscht werden.5 Fehlerhafte Ausdrucke ohne Fehlermeldung Für das Drucksystem ist der Druckauftrag abgeschlossen. Wenn cupsd einen Druckauftrag akzeptiert.

7. wenn Sie den Drucker aus. h. Qualitativ hochwertige Drucker sind mit einer Taste zum Abbrechen des aktuellen Druckauftrags ausgestattet. um zu prüfen. die aktuell noch auf den Drucker zugreifen (präziser: auf den Parallelanschluss). um dies zu beheben: 1 Um den Druckvorgang zu beenden. Löschen Sie den Druckauftrag mit cancel Warteschlange-Auftragsnummer oder mit cancel -h Print-Server Warteschlange-Auftragsnummer. 3 Auch wenn der Druckauftrag aus der Warteschlange gelöscht wurde. entfernen Sie das Papier aus Tintenstrahldruckern oder öffnen Sie die Papierzufuhr bei Laserdruckern. Für einen an den Parallelanschluss angeschlossenen Drucker geben Sie beispielsweise den Befehl fuser -k /dev/lp0 ein. druckt der Drucker mehrere Seiten Papier mit unleserlichen Zeichen. Fehlerhafte Druckaufträge müssen mit cancel aus der Warteschlange entfernt werden. ihn an den Drucker gesendet).und wieder einschalten oder den Computer während des Druckvorgangs herunterfahren und neu booten.vorausgesetzt. um alle Prozesse zu beenden. da die Aufträge erst dann entfernt werden. 270 Referenz .8 Fehlerhafte Druckaufträge und Fehler bei der Datenübertragung Druckaufträge verbleiben in den Warteschlangen und das Drucken wird fortgesetzt. 2 Der Druckauftrag befindet sich möglicherweise noch in der Warteschlange. Geben Sie lpstat -o oder lpstat -h Print-Server -o ein. werden einige Daten weiter an den Drucker gesendet. Prüfen Sie. der Server hat den Druckauftrag nicht bereits abgeschlossen (d. da er die Daten nicht ordnungsgemäß verarbeiten kann. wenn sie vollständig an den Drucker übertragen wurden. über welche Warteschlange aktuell gedruckt wird. ob ein CUPS-BackendProzess für die entsprechende Warteschlange ausgeführt wird und wenn ja. Mithilfe dieser Auftragsnummer kann der Druckauftrag auf dem Server gelöscht werden: cancel -h print-server queue-jobnnumber 11. beenden Sie ihn. Wenn ein Druckauftrag fehlerhaft ist oder während der Kommunikation zwischen dem Host und dem Drucker ein Fehler auftritt. Führen Sie die folgenden Schritte aus.

com/) enthalten. um die Ursache des Problems zu identifizieren. um das Durchsuchen sehr großer Protokolldateien zu vermeiden. 2 Stoppen Sie cupsd. die zu dem Problem geführt hat.4 Setzen Sie den Drucker vollständig zurück. 5 Wiederholen Sie die Aktion.suse. Die gesuchten Themen finden Sie am schnellsten über Schlüsselwortsuchen.9 Fehlerbehebung beim CUPS-Drucksystem Suchen Sie Probleme im CUPS-Drucksystem mithilfe des folgenden generischen Verfahrens: 1 Setzen Sie LogLevel debug in /etc/cups/cupsd. 6 Lesen Sie die Meldungen in /var/log/cups/error_log*. 4 Starten Sie cupsd. 11. Legen Sie anschließend Papier ein und schalten Sie den Drucker wieder ein.7. Druckerbetrieb 271 .7.conf. 3 Entfernen Sie /var/log/cups/error_log*. indem Sie ihn für einige Zeit ausschalten.10 Weitere Informationen Lösungen zu vielen spezifischen Problemen sind in der SUSE-Support-Datenbank (http://portal. 11.

.

oder Sie können zusätzliche Daten zur Auswertung bei der Gerätebehandlung anfordern und importieren. wird der Geräteknoten entfernt. Änderungen des Gerätestatus (ob ein Gerät angeschlossen oder entfernt wird) müssen an den userspace weitergegeben werden.Gerätemanagement über dynamischen Kernel mithilfe von udev 12 Seit Version 2.6 kann der Kernel nahezu jedes Gerät im laufenden System hinzufügen oder entfernen. 12. Der Inhalt des /dev-Verzeichnisses wird in einem temporären Dateisystem gespeichert und alle Dateien werden bei jedem Systemstart neu erstellt. Mithilfe von udev spiegelt das /dev-Verzeichnis den aktuellen Status des Kernel wider. die als Teil der KernelGerätebehandlung ausgeführt werden. Mithilfe von udevRegeln können externe Programme in die Ereignisverarbeitung des Kernel-Geräts eingebunden werden. Manuell erstellte oder geänderte Dateien überdauern ein erneutes Booten planmäßig nicht. Statische Dateien Gerätemanagement über dynamischen Kernel mithilfe von udev 273 . Auf diese Weise können Sie die udev-Gerätebehandlung anpassen. sobald sie angeschlossen und erkannt wurden. Geräte müssen konfiguriert werden. Jedes Kernel-Gerät verfügt über eine entsprechende Gerätedatei. Sie können beispielsweise bestimmte Skripts hinzufügen. Benutzer eines bestimmten Geräts müssen über sämtliche Statusänderungen für das entsprechende Gerät informiert werden. Falls ein Gerät vom System getrennt wird. udev bietet die erforderliche Infrastruktur.1 Das /dev-Verzeichnis Die Geräteknoten im /dev-Verzeichnis ermöglichen den Zugriff auf die entsprechenden Kernel-Geräte. um die Geräteknotendateien und symbolische Links im /dev-Verzeichnis dynamisch zu warten.

rules-Dateien einmalig beim Start und speichert diese.und Verzeichnisse. ob Geräte vorhanden sind. empfängt der Daemon ein Ereignis und aktualisiert die gespeicherten Regeldarstellungen. Falls Regeldateien verändert. Die Regeln können Ereignisergebnisschlüssel hinzufügen oder ändern. Beim Systemstart wird der Inhalt des entsprechenden Verzeichnisses in das /dev-Verzeichnis kopiert und erhält dieselbe Eigentümerschaft und dieselben Berechtigungen wie die Dateien in /lib/udev/devices. die ausgeführt werden sollen. einen bestimmten Namen für den zu erstellenden Geräteknoten anfordern. Bus-Geräte identifizieren sich mithilfe einer speziell formatierten ID. Kernel-Module und Geräte Die Kernel-Bus-Treiber prüfen. wird ein Verzeichnis mit dem Gerätenamen erstellt. Jedes empfangene Ereignis wird mit dem Satz der angegebenen Regeln abgeglichen. Die Treiber-Core-uevents werden von einem Kernel-Netlink-Socket empfangen.3 Treiber. Jedes Mal. wenn ein Gerät hinzugefügt oder entfernt wird. Jeder Bus weist ein eigenes Schema für diese IDs auf. 12. um udev über die Änderung zu informieren. nachdem der Geräteknoten erstellt wurde. das so genannte MODALIAS-Schema. können im Verzeichnis /lib/udev/ devices platziert werden. die Auskunft über die Art des Geräts gibt. Normalerweise bestehen diese IDs aus einer Hersteller.2 Kernel-uevents und udev Die erforderlichen Geräteinformationen werden vom sysfs-Dateisystem exportiert. verfasst daraus 274 Referenz .d/*. Für jedes Gerät. die unabhängig vom Status des entsprechenden Kernel-Geräts immer im /dev-Verzeichnis vorhanden sein sollten. Der udev-Daemon liest und analysiert alle angegebenen Regeln aus den /etc/udev/ rules. Es enthält Attributdateien mit gerätespezifischen Eigenschaften. das der Kernel erkannt und initialisiert hat. 12. Der Kernel bedient sich der Geräteinformationen. hinzugefügt oder entfernt werden.und einer Produkt-ID und anderen das Subsystem betreffenden Werten. auf den Knoten verweisende Symlinks hinzufügen oder Programme hinzufügen. Für jedes erkannte Gerät erstellt der Kernel eine interne Gerätestruktur und der Treiber-Core sendet ein uevent an den udev-Daemon. sendet der Kernel ein uevent.

Bei dieser Infrastruktur ist das Laden des Moduls ein ebenso müheloser Vorgang. Anstatt manuell nach möglicherweise angeschlossenen Geräten zu suchen. die er behandeln kann. nicht durch die frühe Boot-Logik initialisiert werden. Falls modprobe $MODALIAS aufgerufen wird. Eine einfache Schleife über alle uevent-Dateien in /sys löst alle Ereignisse erneut aus. Das Programm depmod liest die ID-Listen und erstellt die Datei modules.4 Booten und erstes Einrichten des Geräts Alle Geräteereignisse. stellt der Kernel eine uevent-Datei für jedes Gerät im sysfs-Dateisystem zur Verfügung. gehen verloren. gleicht es den für das Gerät verfassten Geräte-Alias mit den Aliassen von den Modulen ab. die während des Boot-Vorgangs stattfinden. Falls ein übereinstimmender Eintrag gefunden wird. die während des Boot-Vorgangs vorhanden ist. bevor der udevDaemon ausgeführt wird.alias im Verzeichnis /lib/ modules des Kernel für alle zurzeit verfügbaren Module. wenn das Root-Dateisystem verfügbar ist. Alle diese Vorgänge werden von udev ausgelöst und erfolgen automatisch. Das Ereignis für die USB-Maus wird also lediglich erneut ausgeführt. Beispielsweise kann eine USB-Maus. um die Geräteknoten zu erstellen und die Geräteeinrichtung durchzuführen. Jetzt wird das Kernel-Modul auf dem eingehängten Root-Dateisystem gefunden und die USB-Maus kann initialisiert werden.eine MODALIAS-ID-Zeichenkette und sendet diese Zeichenkette zusammen mit dem Ereignis. wie das Aufrufen von modprobe für jedes Ereignis. das während des Boot-Vorgangs verloren gegangen ist. 12. wird das entsprechende Modul geladen. fordert udev lediglich alle Geräteereignisse aus dem Kernel an. Durch das Schreiben von add in die entsprechende Datei sendet der Kernel dasselbe Ereignis. das über einen MODALIAS-Schlüssel verfügt. Das Ereignis für die Geräteerkennung ist verloren gegangen und konnte kein Kernel-Modul für das Gerät finden. Beispiel für eine USB-Maus: MODALIAS=usb:v046DpC03Ed2000dc00dsc00dp00ic03isc01ip02 Jeder Gerätetreiber verfügt über eine Liste bekannter Aliase für Geräte. Um diesen Verlust auszugleichen. Die Liste ist in der Kernel-Moduldatei selbst enthalten. Dies liegt daran. da der Treiber zum entsprechenden Zeitpunkt nicht verfügbar ist. Gerätemanagement über dynamischen Kernel mithilfe von udev 275 . neu. dass die Infrastruktur für die Behandlung dieser Ereignisse sich in dem Root-Dateisystem befindet und zu diesem Zeitpunkt nicht verfügbar ist.

bis das Ereignis für den primären Datenträger beendet ist.309485] add@/class/input/input6 UEVENT[1132632714.Vom userspace aus gibt es keinen erkennbaren Unterschied zwischen einer coldplugGerätesequenz und einer Geräteerkennung während der Laufzeit.420947] add@/devices/pci0000:00/0000:00:1d.434223] add@/class/usb_device/usbdev2.1/usb2/2-2 UEVENT[1132632714.12 UDEV [1132632714. Das Timing wird in Mikrosekunden angegeben.288166] add@/devices/pci0000:00/0000:00:1d. Die Zeit zwischen UEVENT und UDEV ist die Zeit.0 PHYSDEVBUS=usb PHYSDEVDRIVER=usbhid PRODUCT=3/46d/c03e/2000 NAME="Logitech USB-PS/2 Optical Mouse" 276 Referenz .309511] add@/class/input/input6/mouse2 UEVENT[1132632714. da die Partitionsereignisse möglicherweise auf die Daten angewiesen sind.1/usb2/2-2/2-2:1.1/usb2/2-2 UDEV [1132632714.1/usb2/2-2/2-2:1. um die Treiber-Core-Ereignisse und das Timing der udev-Ereignisprozesse zu visualisieren. UEVENT[1132632714.285362] add@/devices/pci0000:00/0000:00:1d. In beiden Fällen werden dieselben Regeln für den Abgleich verwendet und dieselben konfigurierten Programme ausgeführt.348966] add@/devices/pci0000:00/0000:00:1d. die udev benötigt hat.12 UDEV [1132632714. udevmonitor --env zeigt die vollständige Ereignisumgebung: UDEV [1132633002.439934] add@/class/input/input6/mouse2 Die UEVENT-Zeilen zeigen die Ereignisse an.937243] add@/class/input/input7 UDEV_LOG=3 ACTION=add DEVPATH=/class/input/input7 SUBSYSTEM=input SEQNUM=1043 PHYSDEVPATH=/devices/pci0000:00/0000:00:1d.5 Fehlersuche bei udev-Ereignissen Das Programm udevmonitor kann verwendet werden. die das Ereignis für den primären Datenträger von der Hardware angefordert hat. 12.309524] add@/class/usb_device/usbdev2. Die UDEV-Zeilen zeigen die fertig gestellten udev-Ereignisbehandlungsroutinen an.0 UEVENT[1132632714. Beispielsweise warten Ereignisse für Festplattenpartitionen immer.1/usb2/2-2/2-2:1.0 UDEV [1132632714. um dieses Ereignis zu verarbeiten oder der udevDaemon hat eine Verzögerung bei der Ausführung der Synchronisierung dieses Ereignisses mit zugehörigen und bereits ausgeführten Ereignissen erfahren.427298] add@/class/input/input6 UDEV [1132632714. die der Kernel an Netlink gesendet hat.

die der Kernel in sysfs exportiert. Jedes Ereignis wird gegen alle angegebenen Regeln abgeglichen.PHYS="usb-0000:00:1d. die steuert. Die Regelsyntax und die angegebenen Schlüssel zum Abgleichen oder Importieren von Daten werden auf der Manualpage für udev beschrieben. Es gibt zwei Arten von Schlüsseln: die Übereinstimmungsschlüssel und Zuweisungsschlüssel. Jede Zeile in der Regeldatei enthält mindestens ein Schlüsselwertepaar. Die Regel kann auch zusätzliche Informationen aus externen Programmen anfordern. Jedes geeignete Block-Gerät. welche Meldungen an syslog gesendet werden. wird in der udev-Konfigurationsdatei /etc/udev/udev. wird diese Regel angewendet und der angegebene Wert wird den Zuweisungsschlüsseln zugewiesen. 12. Alle Regeln befinden sich im Verzeichnis /etc/udev/rules. Die Protokollpriorität des ausgeführten Daemons kann mit udevcontrol log_priority=level/number geändert werden.6 Ereignisse für die Kernelgeräte mit udev-Regeln steuern Eine udev-Regel kann mit einer beliebigen Eigenschaft abgeglichen werden.d/. Falls keine übereinstimmende Regel gefunden wird. wird von Werkzeugen mit spezi- Gerätemanagement über dynamischen Kernel mithilfe von udev 277 . wird der standardmäßige Geräteknotenname verwendet. die der Kernel der Ereignisliste hinzufügt oder mit beliebigen Informationen. Die standardmäßige syslog-Priorität. das der Kernel erstellt. auf den Knoten verweisende Symlinks hinzufügen oder ein bestimmtes Programm als Teil der Ereignisbehandlung ausführen. 12. Wenn alle Übereinstimmungsschlüssel mit ihren Werten übereinstimmen. Eine übereinstimmende Regel kann den Namen des Geräteknotens angeben.conf angegeben. um den Geräteknoten zu erstellen.1-2/input0" UNIQ="" EV=7 KEY=70000 0 0 0 0 0 0 0 0 REL=103 udev sendet auch Meldungen an syslog.7 Permanente Gerätebenennung Das dynamische Geräteverzeichnis und die Infrastruktur für die udev-Regeln ermöglichen die Bereitstellung von stabilen Namen für alle Laufwerke unabhängig von ihrer Erkennungsreihenfolge oder der für den Anschluss des Geräts verwendeten Verbindung.

.usb-02773:0:0:2 -> ./..../sda7 | |-../.159a47a4-e6e6-40be-a757-a629991479ae -> ..usb-Generic_STORAGE_DEVICE_02773-part1 -> ././..agent Nicht mehr erforderlich oder in /lib/udev verschoben /etc/hotplug/*.usb-Generic_STORAGE_DEVICE_02773 -> ..conf ersetzt 278 Referenz ./../././...usb-02773:0:0:2-part1 -> .devel -> ..././.8 Das ersetzte hotplug-Paket Das ehemals verwendete hotplug-Paket wird gänzlich durch die udev../sdd1 | |-./../sda1 | |-./.by-uuid |-.2-scsi-0:0:0:0-part7 -> ./sda | |-../...2-scsi-0:0:0:0 -> ./sda7 | `-./sda6 | |-.scsi-SATA_HTS726060M9AT00_MRH453M4HWHG7B-part7 -> ...3e999973-00c9-4917-9442-b7633bd95b9e -> . Gemeinsam mit dem vom dynamischen Kernel bereitgestellten Geräteknotennamen unterhält udev-Klassen permanenter symbolischer Links.... Die folgenden Teile der ehemaligen hotplugInfrastruktur sind inzwischen überflüssig bzw.SUSE10 -> ../...2-scsi-0:0:0:0-part6 -> ../.by-id | |-./sdd | `-.scsi-SATA_HTS726060M9AT00_MRH453M4HWHG7B-part1 -> ./sdd1 |-.4210-8F8C -> .../..scsi-SATA_HTS726060M9AT00_MRH453M4HWHG7B -> .ellem Wissen über bestimmte Busse.und die udevbezogene Kernel-Infrastruktur ersetzt.scsi-SATA_HTS726060M9AT00_MRH453M4HWHG7B-part6 -> ./sda1 | |-./sda6 |-.pci-0000:00:1f././sda7 | |-./sdd1 `-. die auf das Gerät verweisen: /dev/disk |-./.Photos -> .../.pci-0000:00:1f.rc Durch den /sys/*/uevent-Auslöser ersetzt /etc/hotplug/blacklist Durch die blacklist-Option in modprobe.2-scsi-0:0:0:0-part1 -> ..2-scsi-1:0:0:0 -> ./sdd1 12..by-path | |-./sda6 `-./sda7 |-.. ihre Funktionalität wurde von udev übernommen: /etc/hotplug/*.pci-0000:00:1f. Laufwerktypen oder Dateisysteme untersucht.pci-0000:00:1f../sr0 | |-..by-label | |-./sdd | |-./sda6 | |-..pci-0000:00:1f./sda | |-.

d/* Durch die udev-Regel im RUN-Schlüssel ersetzt /etc/hotplug. Regeln und andere wichtige Konfigurationsbelange. wird anschließend deaktiviert /dev/* Ersetzt durch dynamisches udev und statischen Inhalt in /lib/udev/devices/ * Die folgenden Dateien und Verzeichnisse enthalten die entscheidenden Elemente der udev-Infrastruktur: /etc/udev/udev.d/* udev-Ereigniszuordnungsregeln /lib/udev/devices/* Statischer /dev-Inhalt /lib/udev/* Von den udev-Regeln aufgerufene Helferprogramme 12. bis das Root-Dateisystem eingehängt werden kann. Gerätemanagement über dynamischen Kernel mithilfe von udev 279 . Schlüssel.conf Wichtigste udev-Konfigurationsdatei /etc/udev/rules.9 Weitere Informationen Weitere Informationen zur udev-Infrastruktur finden Sie auf den folgenden Manualpages: udev Allgemeine Informationen über udev.d/* Durch die udev-Regel im RUN-Schlüssel ersetzt /sbin/hotplug Durch das Lauschen auf Netlink durch udevd ersetzt./etc/dev. nur im anfänglichen RAMDateisystem verwendet.

udevmonitor udevmonitor gibt die Kernel.udevinfo udevinfo kann verwendet werden. um Geräteinformationen aus der udev-Datenbank abzufragen. 280 Referenz . udevd Informationen zum udev-Ereignisverwaltungs-Daemon.und udev-Ereignissequenz an der Konsole aus. Dieses Werkzeug wird hauptsächlich zur Fehlersuche verwendet.

die eine Art Protokoll enthält. Das ist eine der Ursachen für die unterschiedlichen Leistungsmerkmale von Dateisystemen. Im Grunde sind es „Daten über die Daten. Inode Inodes enthalten zahlreiche Informationen über eine Datei. Journal Im Kontext eines Dateisystems ist ein Journal eine Struktur auf dem Datenträger.“ Nahezu jedes Dateisystem verfügt über seine eigene Struktur an Metadaten.1 Terminologie Metadaten Eine Dateisystem-interne Datenstruktur.Dateisysteme in Linux 13 Linux unterstützt unterschiedliche Dateisysteme. der Änderung und des Zugriffs. Dieses Kapitel gibt einen kurzen Überblick über die gängigsten Linux-Dateisysteme. 13. auf denen der Dateiinhalt tatsächlich gespeichert wird. einschließlich Größe. dass Metadaten intakt bleiben. sowie Datum und Uhrzeit der Erstellung. Daneben erhalten Sie einige Zusatzinformation über LFS (Large File Support) in Linux. dass alle Daten auf dem Datenträger korrekt organisiert und zugreifbar sind. Anzahl an Links. in dem das Dateisystem speichert. erläutert deren Designkonzepte. Vorzüge und Anwendungsgebiete. was sich in den Metadaten des Dateisystems ändert. Zeiger auf die Plattenblöcke. die sicherstellt. Es ist von größter Wichtigkeit. andernfalls können alle Daten auf dem Dateisystem unzugreifbar werden. Durch Journaling verringert sich die Wieder- Dateisysteme in Linux 281 .

das für alle Arten von Anwendungen optimal ist. die Ihre Anwendung in ihre Dateien schreibt). Denken Sie daran. Kernels.1 ReiserFS Offiziell eines der Hauptmerkmale der Kernel-Version 2.4 beginnen. 13.2. 13.x SUSE-Kernels seit SUSE Linux-Version 6. steht ReiserFS als KernelPatch für 2. dass es wahrscheinlich kein Dateisystem gibt.4 zur Verfügung. Stattdessen wird nur das Journal wiedergegeben. die mit 2. Die Begriffe Datenintegrität und Datenkonsistenz beziehen sich in diesem Kapitel nicht auf die Konsistenz der Daten auf Benutzerebene (Daten.2. stellen eine Vielzahl von Dateisystemen zur Auswahl. ReiserFS wurde von Hans Reiser und dem Namesys-Entwicklungsteam entwickelt. Es hat sich als leistungsstarke Alternative zu Ext2 bewährt. können alle Schritte für das Einrichten oder Ändern von Partitionen und Dateisystemen mit YaST ausgeführt werden. die berücksichtigt werden müssen. bessere Leistung beim Plattenzugriff und schnellere Wiederherstellung nach einem Absturz. Nachfolgend erhalten Sie einen Überblick über die grundlegende Funktionsweise und die Vorzüge dieser Dateisysteme.2 Wichtige Dateisysteme in Linux Die Wahl eines Dateisystems für ein Linux-System ist nicht mehr wie noch vor zwei oder drei Jahren eine Sache von wenigen Sekunden (Ext2 oder ReiserFS?). der beim Systemstart das ganze Dateisystem prüft. da es den langen Suchvorgang überflüssig macht. Ob diese Daten konsistent sind.4. Jedes Dateisystem hat seine Stärken und Schwächen. Seine Vorzüge sind eine bessere Nutzung des Speicherplatzes. muss die Anwendung selbst prüfen.herstellungsdauer für ein Linux-System erheblich. Selbst das anspruchsvollste Dateisystem kann jedoch keine vernünftige Strategie für Sicherungskopien ersetzen. 282 Referenz . WICHTIG: Einrichten von Dateisystemen Wenn in diesem Kapitel nicht anders angegeben.

statt sie an anderer Stelle zu speichern und einfach den Zeiger auf den tatsächlichen Ort zu verwalten. Abschnitt 13. Der Standardmodus ist data=ordered.Die Stärken von ReiserFS: Bessere Nutzung des Speicherplatzes In ReiserFS werden alle Daten in einer Struktur namens „B*-balanced Tree“ organisiert. ein einziger Festplattenzugriff genügt. 284). Schnelle Wiederherstellung nach einem Absturz Durch Verwendung eines Journals zur Nachverfolgung kürzlich erfolgter Metadatenänderungen reduziert sich die Dateisystemüberprüfung sogar für große Dateisysteme auf wenige Sekunden. bei dem die Inode-Dichte bei der Erstellung des Dateisystems angegeben werden muss. h. Dateisysteme in Linux 283 . Mit der Erstellung von Journaling File Systemen und ihren verblüffend kurzen Wiederherstellungszeiten verlor Ext2 an Bedeutung. Das Extended File System unterzog sich einer Reihe von Änderungen und entwickelte sich als Ext2 für viele Jahre zum beliebtesten LinuxDateisystem. Zusätzlich wird der Speicher nicht in Einheiten von 1 oder 4 KB zugewiesen. Zuverlässigkeit durch Daten-Journaling ReiserFS unterstützt auch Daten-Journaling und „ordered-data“-Modi ähnlich den Konzepten. die im Ext3-Abschnitt. aber Journaling nur für Metadaten nutzt.. Bessere Leistung beim Festplattenzugriff Bei kleinen Dateien werden häufig die Dateidaten und die „stat_data“ (Inode)Informationen nebeneinander gespeichert. Damit bleibt das Dateisystem flexibler als traditionelle Dateisysteme wie Ext2.96c integriert. Ein weiterer Vorteil liegt in der dynamischen Zuweisung von Inodes.2.2 Ext2 Die Ursprünge von Ext2 reichen bis zu den Anfangstagen der Linux-Geschichte zurück. da kleine Dateien direkt in den Blättern des B*-Baums gespeichert werden können. d. wurde im April 1992 implementiert und in Linux 0. sondern in exakt der benötigten Größe. Sie lassen sich in einer einzigen E/AOperation lesen. umrissen werden. was die Integrität von Daten und Metadaten sicherstellt. 13. das Extended File System. „Ext3“ (S.2.3. Die Baumstruktur trägt zur besseren Nutzung des Festplattenspeichers bei. um alle benötigten Informationen abzurufen. Sein Vorgänger.

Metadaten werden in einen konsistenten Zustand gebracht und schwebende Dateien oder Datenblöcke werden in ein ausgewiesenes Verzeichnis geschrieben (genannt lost +found). Ein Ext3-Dateisystem kann einfach auf einem Ext2-Dateisystem aufgebaut werden.2. Das kann der Grund dafür sein. Abhängig von der Größe des Dateisystems kann dies eine halbe Stunde oder länger dauern. warum es bei vielen Linux-Benutzern das bevorzugte Linux-Dateisystem war – und in einigen Bereichen immer noch ist. Der wesentlichste Unterschied zwischen Ext2 und Ext3 liegt darin.Eine kurze Zusammenfassung der Stärken von Ext2 kann erhellen. Es basiert auf Ext2. Diese beiden Dateisysteme sind sehr eng miteinander verwandt. dass es als „unerschütterlich“ gilt. der auf hohe Verfügbarkeit angewiesen ist. B. die sich ziemlich langwierig gestalten können (Anlegen von Sicherungs- 284 Referenz . Im Unterschied zu Journaling File Systemen analysiert e2fsck das ganze Dateisystem und nicht nur die kürzlich geänderten Metadaten. Stabilität Als wahrer „Oldtimer“ erlebte Ext2 viele Verbesserungen und wurde ausgiebig getestet. dass Ext3 Journaling unterstützt. wie z. ist es manchmal schneller als andere Dateisysteme. Das dauert erheblich länger als das Überprüfen der Protokolldaten eines Journaling File Systems. 13. auf der sich Ext3 zu einem hoch geschätzten Dateisystem der nächsten Generation entwickeln konnte. Einfaches Upgrade Der Code für Ext2 bildet die verlässliche Grundlage. Daher sollte Ext2 nicht für einen Server gewählt werden. sind Upgrades von Ext2 auf Ext3 unglaublich einfach. die Dateisystemdaten zu analysieren. Seine Zuverlässigkeit und Stabilität wurden geschickt mit den Vorzügen eines Journaling File Systems kombiniert. beginnt e2fsck. Im Unterschied zur Umstellung auf andere Journaling File Systeme. Da Ext2 jedoch kein Journal führt und bedeutend weniger Speicher belegt.3 Ext3 Ext3 wurde von Stephen Tweedie entwickelt. Insgesamt bietet Ext3 drei wesentliche Vorteile: Einfache und höchst zuverlässige Dateisystem-Upgrades von Ext2 Da Ext3 auf dem Ext2-Code basiert und dessen platteneigenes Format sowie sein Metadatenformat teilt. Im Unterschied zu allen anderen Dateisystemen der nächsten Generation folgt Ext3 keinem komplett neuen Entwicklungsprinzip. ReiserFS oder XFS. Wenn nach einem Systemausfall kein ordnungsgemäßes Aushängen des Dateisystems möglich war.

während die interne Integrität des Dateisystems bewahrt wird. Sofern nicht anders angegeben. die einem Metadaten-Update entsprechen. bei der Daten in das Hauptdateisystem geschrieben werden können.kopien des kompletten Dateisystems und ein kompletter Neuaufbau des Dateisystems). Ihre Metadaten bleiben stets in einem konsistenten Zustand. Wie eingehend sich Ext3 um Daten und Metadaten „kümmert“. die auf ein Upgrade auf ein Journaling File System warten. In Anbetracht der bestehenden Ext2-Systeme. Ext3 ist in der Lage. da die Neuerstellung eines ganzen Dateisystems von Grund auf eventuell nicht reibungslos funktioniert. jedoch das Journaling nur für Metadaten verwendet. wird Ext3 mit der Standardeinstellung data=ordered gestartet Dateisysteme in Linux 285 . ist eine Umstellung auf Ext3 eine Sache von Minuten. warum Ext3 für viele Systemadministratoren eine gewisse Bedeutung hat. der sowohl die Daten. Der Dateisystemtreiber sammelt alle Datenblöcke. Das bedeutet. ohne die Leistung zu beeinträchtigen. Führen Sie einfach ein sauberes Aushängen des Ext3-Dateisystems durch und hängen Sie es neu als ein Ext2-Dateisystem ein. Zuverlässigkeit und Leistung Einige andere Journaling File Systeme nutzen die Journaling-Methode „nur Metadaten“. Sie kann jedoch ermöglichen. Eine dritte Möglichkeit ist die Verwendung von data=writeback. dass alte Daten nach einem Absturz und der Wiederherstellung erneut in Dateien auftauchen. sich sowohl um die Metadaten als auch die Daten selbst zu kümmern. Zudem ist es sehr sicher. Maximale Sicherheit (Datenintegrität) wird durch den Start von Ext3 im Modus data=journal erreicht. nachdem die Metadaten im Journal festgeschrieben wurden.als auch die Metadatenintegrität gewährleistet. Ein relativ neuer Ansatz besteht in der Verwendung des Modus data=ordered. ist individuell einstellbar. lässt sich leicht ausrechnen. da sowohl Metadaten als auch Daten selbst im Journal erfasst werden. dies kann jedoch das System verlangsamen. So wird Konsistenz für Metadaten und Daten erzielt. jedoch kann dasselbe nicht automatisch für die eigentlichen Dateisystemdaten garantiert werden. Diese Option wird häufig als die beste hinsichtlich der Leistung betrachtet. Diese Datenblöcke werden vor dem Metadaten-Update auf Platte geschrieben. Ein Downgrade von Ext3 auf Ext2 ist genauso leicht wie das Upgrade.

Dabei wird ein Ext3-Journal mit den Standardparametern erstellt.13. Wenn eine umfangreiche Datei relevante Informationen für mehrere Benutzer.6). 13. Derzeit wird die Dateizugriffskontrolle pro Datei definiert.6 bekam die Familie der Journaling File Systeme Zuwachs durch ein weiteres Mitglied: Reiser4. 286 Referenz .4 Konvertieren eines Ext2-Dateisystems in Ext3 Gehen Sie wie folgt vor. indem Sie den Dateisystemtyp für die entsprechende Partition von ext2 in ext3 ändern. Weitere Informationen über das Programm tune2fs finden Sie auf der Manualpage „tune2fs“. indem Sie ext3 und jbd der Variablen INITRD_MODULES hinzufügen. das als Ext3-Partition eingerichtet wurde. Reiser4 wird daher mit einem Satz an speziellen SicherheitsPlugins geliefert. Engmaschiges Sicherheitskonzept Bei Reiser4 legten die Entwickler besonderen Wert auf die Implementierung von Sicherheitsfunktionen. führen Sie stattdessen tune2fs -J zusammen mit den entsprechenden Journaloptionen size= und device= aus. 2 Um sicherzustellen. 3 Um ein Root-Dateisystem zu booten. nehmen Sie die Module ext3 und jbd in initrd auf. Reiser4 unterscheidet sich grundlegend von seinem Vorgänger ReiserFS (Version 3. dass das Ext3-Dateisystem als solches erkannt wird. Es optimiert die Dateisystemfunktionalität durch Plugins und bietet ein engmaschigeres Sicherheitskonzept. Falls Sie selbst die Größe des Journals und dessen Speicherort festlegen möchten. indem Sie tune2fs -j als „root“ ausführen. Diese Änderung wird nach dem nächsten Neustart wirksam.5 Reiser4 Direkt nach der Veröffentlichung von Kernel 2.2.2. Bearbeiten Sie hierfür /etc/sysconfig/kernel als „root“. Gruppen oder Anwendungen enthält. Damit wird eine neue initrd aufgebaut und zur Verwendung vorbereitet. Führen Sie nach dem Speichern der Änderungen den Befehl mkinitrd aus. Das wichtigste führt das Konzept von Datei-„Items“ ein. um ein Ext2-Dateisystem in Ext3 zu konvertieren: 1 Legen Sie ein Ext3-Journal an. bearbeiten Sie die Datei /etc/fstab als „root“.

um alle betroffenen Parteien zu berücksichtigen. Dateisysteme in Linux 287 . warum es sich möglicherweise als starke Konkurrenz zu anderen Journaling File Systemen in der High-End-Datenverarbeitung erweisen könnte. Zugriffsrechte lassen sich dann für jedes Element und jeden Benutzer separat festlegen. was eine viel präzisere Verwaltung der Dateisicherheit erlaubt. 13. Jedoch hat auch XFS einen Schwachpunkt. Mithilfe des Item-Konzepts von Reiser4 können Sie diese Datei in mehrere Elemente zerlegen (ein Item pro Benutzer) und Benutzern oder Anwendungen erlauben. das den extremen Herausforderungen der heutigen Zeit gewachsen ist. Dieses Konzept erhöht sowohl die Sicherheit als auch die Flexibilität. Bisher konnte nur root die Datei lesen und bearbeiten. aber nicht auf die Daten anderer Benutzer zuzugreifen.mussten die Zugriffsrechte ziemlich unpräzise sein. um Ihrem Dateisystem neue Funktionen hinzuzufügen.6. Diese Plugins lassen sich bequem dem Basissystem hinzufügen. jedoch weniger auf Datenintegrität. Erweiterbarkeit durch Plugins Viele Dateisystemfunktionen und externe Funktionen.2. Sie brauchen den Kernel nicht mehr neu zu kompilieren oder die Festplatte neu zu formatieren. Besseres Dateisystemlayout durch „Delayed Allocation“ Wie XFS unterstützt Reiser4 „Delayed Allocation“ (verzögerte Speicherzuweisung). Mit XFS sollte ein leistungsstarkes 64-Bit-Journaling File System geschaffen werden. die ein Dateisystem gewöhnlich nutzt. Ein perfektes Beispiel ist /etc/passwd. Siehe Abschnitt 13. Wie ReiserFS legt XFS großen Wert auf Metadatenintegrität. Der Einsatz dieser Technik sogar für Metadaten kann zu einem besseren Gesamtlayout führen. Ein kurzer Blick auf die Hauptmerkmale von XFS erklärt. XFS eignet sich sehr gut für den Umgang mit großen Dateien und zeigt gute Leistungen auf High-End-Hardware. während Nicht-root-Benutzer nur Lesezugriff auf diese Datei erhielten. werden in Reiser4 als Plugins implementiert. „XFS“ (S.2. ihre eigenen Daten zu ändern. In Reiser4 können Sie diese Dateien in kleinere Teile (die „Items“) zerlegen. 287).6 XFS Ursprünglich als Dateisystem für ihr IRIX-Betriebssystem gedacht. begann SGI die Entwicklung von XFS bereits in den frühen 1990er-Jahren.

Es führt die Speicherzuweisung in zwei Schritten durch. Die Leistung wird erhöht. dass der Datenverlust nach einem Absturz während eines Schreibvorgangs größer ist. Der Einsatz von B+-Bäumen trägt wesentlich zur Leistung und Skalierbarkeit von XFS bei. Diese Funktion ist der Schlüssel zur hohen Skalierbarkeit von XFS. in welchen Dateisystemblöcken) die Daten gespeichert werden. 288 Referenz . So erhöht XFS die Leistung und verringert die Fragmentierung des Dateisystems. XFS verwendet Delayed Allocation (verzögerte Speicherzuweisung). Da jedoch eine verzögerte Zuweisung weniger Schreibvorgänge als in anderen Dateisystemen zur Folge hat. Da Zuordnungsgruppen relativ autonom sind. Das Konzept der autonomen Zuordnungsgruppen kommt natürlicherweise den Anforderungen von Multiprozessorsystemen entgegen. Eine ausstehende Transaktion wird im RAM gespeichert und der entsprechende Speicherplatz reserviert. XFS entscheidet noch nicht. da sie zum Zeitpunkt der Entscheidung über ihren Speicherort durch XFS bereits überholt sind. wo genau (d. kann der Kernel gleichzeitig mehrere von ihnen adressieren.Hohe Skalierbarkeit durch den Einsatz von Zuweisungsgruppen Bei der Erstellung eines XFS-Dateisystems wird das dem Dateisystem zugrunde liegende Blockgerät in acht oder mehr lineare Bereiche gleicher Größe unterteilt. temporäre Daten werden somit niemals auf Platte gespeichert. Einige kurzlebige. da die Dateiinhalte nicht über das gesamte Dateisystem verteilt werden. Hohe Leistung durch effiziente Verwaltung des Festplattenspeichers Freier Speicher und Inodes werden von B+-Bäumen innerhalb der Zuordnungsgruppen verwaltet. h. Zuordnungsgruppen können praktisch als Dateisysteme im Dateisystem betrachtet werden. Vorabzuweisung zur Vermeidung von Dateisystemfragmentierung Vor dem Schreiben der Daten in das Dateisystem reserviert XFS den benötigten Speicherplatz für eine Datei (bzw. weist ihn vorab zu). ist es wahrscheinlich. Diese Entscheidung wird auf den letztmöglichen Moment hinausgezögert. Diese werden als Zuweisungsgruppen (Allocation Groups) bezeichnet. Damit wird die Dateisystemfragmentierung erheblich reduziert. Jede Zuweisungsgruppe verwaltet Inodes und freien Speicher selbst.

um die Kompatibilität und den Datenaustausch zwischen unterschiedlichen Medien oder fremden Betriebssystemen sicherzustellen. Xenix und Coherent (kommerzielle UNIX-Systeme für PCs). wird heute noch von verschiedenen Betriebssystemen verwendet. hpfs iso9660 minix msdos ncpfs nfs smbfs sysv Dateisysteme in Linux 289 . High Performance File System: Das OS/2-Standarddateisystem – nur im Nur-Lese-Modus unterstützt. „Dateisystemarten unter Linux“ (S. Sie werden hauptsächlich unterstützt.13. Heute wird es noch für Disketten eingesetzt. fat. Tabelle 13. 289) sind weitere von Linux unterstützte Dateisysteme aufgelistet.1. Dateisystem zum Einhängen von Novell-Volumes über Netzwerke. das von DOS stammende Dateisystem. Verwendet unter SCO UNIX.3 Weitere unterstützte Dateisysteme In Tabelle 13.1 cramfs Dateisystemarten unter Linux Compressed ROM file system: Ein komprimiertes Dateisystem mit Lesezugriff für ROMs. Network File System: Hier können Daten auf einem beliebigen vernetzten Rechner gespeichert werden und der Zugriff kann über ein Netzwerk erfolgen. Standarddateisystem auf CD-ROMs. Dieses Dateisystem wurde ursprünglich für Forschungsprojekte zu Betriebssystemen entwickelt und war das erste unter Linux verwendete Dateisystem. Server Message Block wird von Produkten wie Windows für den Dateizugriff über ein Netzwerk verwendet.

umsdos vfat ntfs 13. Mit dem zunehmenden Einsatz von Linux für Multimedia und zur Verwaltung riesiger Datenbanken reichte dies nicht mehr aus. Nur-Lese-Modus. UNIX on MSDOS: Aufgesetzt auf einem normalen fat-Dateisystem. Nur im Nur-LeseModus unterstützt. Windows NT File System.2. Virtual FAT: Erweiterung des fat-Dateisystems (unterstützt lange Dateinamen). Tabelle 13. lange Dateinamen) durch die Erstellung spezieller Dateien. „Maximale Größe von Dateisystemen (Festplattenformat)“ (S. Dazu wurden neue Schnittstellen eingeführt. die von Anwendungen genutzt werden können.ufs Verwendet von BSD. die größer als 2 GB sind. Links.2 Dateisystem Maximale Größe von Dateisystemen (Festplattenformat) Dateigröße (Byte) Dateisystemgröße (Byte) 241 (2 TB) 243 (8 TB) 243-4096 (16 TB-4096 Byte) Ext2 oder Ext3 (Blockgröße 1 KB) 234 (16 GB) Ext2 oder Ext3 (Blockgröße 2 KB) 238 (256 GB) Ext2 oder Ext3 (Blockgröße 4 KB) 241 (2 TB) 290 Referenz . dass sie auch Dateien unterstützen. Tabelle 13. Erhält UNIX-Funktionalität (Rechte.4 Large File Support unter Linux Ursprünglich unterstützte Linux eine maximale Dateigröße von 2 GB. 290) bietet einen Überblick über die derzeitigen Beschränkungen für Linux-Dateien und -Dateisysteme. SunOS und NeXTstep. Heutzutage bieten fast alle wichtigen Dateisysteme eine Unterstützung von LFS zur High-End-Datenverarbeitung. Aufgrund des immer häufigeren Einsatzes als ServerBetriebssystem wurden der Kernel und die C Library so angepasst.

Der Kernel von Version 2. „Maximale Größe von Dateisystemen (Festplattenformat)“ (S. Dateisystemgröße 73 Dateisysteme können bis zu 2 Byte groß sein.6 hat seine eigenen Einschränkungen für die maximale Größe von Dateien und Dateisystemen. 290) beschreibt die Einschränkungen in Abhängigkeit vom Festplattenformat. Dabei handelt es sich um folgende: Dateigröße 41 Dateien können auf 32-Bit-Systemen nicht größer sein als 2 TB (2 Byte).au/~akpm/linux/ext3/ Dateisysteme in Linux 291 . wo Sie Informationen aus Mailinglisten und weitere Dokumentation sowie FAQ erhalten. 13.com.sourceforge.net/ • http://www.5 Weitere Informationen Jedes der oben beschriebenen Dateisystemprojekte unterhält seine eigene Homepage. • http://e2fsprogs.2. Dieses Limit schöpft jedoch noch keine verfügbare Hardware aus. wie Alpha) ReiserFS v3 XFS NFSv2 (Client-seitig) NFSv3 (Client-seitig) 246 (64 TB) 263 (8 EB) 231 (2 GB) 263 (8 EB) 245 (32 TB) 263 (8 EB) 263 (8 EB) 263 (8 EB) WICHTIG: Linux-Kernel-Beschränkungen Tabelle 13.zipworld.Dateisystem Dateigröße (Byte) Dateisystemgröße (Byte) 245 (32 TB) Ext2 oder Ext3 (Blockgröße 8 KB) 246 (64 TB) (Systeme mit 8-KB-Seiten.

com/projects/xfs/ Ein umfassendes mehrteiliges Tutorial zu Linux-Dateisystemen findet sich unter IBM developerWorks: http://www-106.com/ • http://oss.sgi.• http://www. Einen Vergleich der verschiedenen Journaling File Systeme unter Linux befindet sich im Beitrag von Juan I. Santos Florido unter Linuxgazette: http://www.namesys.html.ibm.com/issue55/florido.de/~aj/linux_lfs.html.ibm.linuxgazette.suse.software.com/developerworks/ library/l-fs. Eine ausführliche Arbeit zu LFS unter Linux erhalten Sie auf Andreas Jaegers LFS-Site: http:// www. 292 Referenz .com/developerworks/opensource/ jfs/ • http://oss.html.

Die grafische Benutzeroberfläche wird anfänglich während der Installation konfiguriert. die sich unter /usr/ share/doc/packages/Xorg und /usr/share/doc/howto/en befindet. Desktops wie KDE und GNOME sowie die zahlreichen Fenstermanager verwenden den X-Server für die Interaktion mit dem Benutzer. wie OpenGL und 3D konfiguriert werden. über eine beliebige Art von Netzwerk (LAN oder Internet) verbundenen Host anzuzeigen. ist für die Kommunikation zwischen Hardware und Software verantwortlich. Sie erhalten dabei Hintergrundinformationen über die Verwendung von Schriften unter SUSE Linux und erfahren. der X-Server. In diesem Kapitel werden die Einrichtung und die Optimierung der X Window-Systemumgebung beschrieben. Das X Window-System 293 . X ist netzwerkbasiert und ermöglicht es. Dieses Material ist mit den zugehörigen Manualpages nur verfügbar. d. xorg-x11-man und howtoenh). verwenden Sie das entsprechende Modul aus dem YaST-Kontrollzentrum oder starten Sie SaX2 manuell über die Befehlszeile mit dem Befehl sax2.1 X11-Konfiguration mit SaX2 Die grafische Benutzeroberfläche. Das SaX2-Hauptfenster bietet eine gemeinsame Schnittstelle für die einzelnen Module aus dem YaST-Kontrollzentrum.Das X Window-System 14 Das X Window-System (X11) ist der Industriestandard für grafische Benutzeroberflächen unter UNIX. Um die Einstellungen zu einem späteren Zeitpunkt zu ändern. auf einem Host gestartete Anwendungen auf einem anderen. Der folgende Text enthält mehrere Verweise auf Dokumentation. 14. wenn die entsprechenden Dokumentationspakete installiert sind (xorg-x11-doc. h.

die den entsprechenden Konfigurationsdialogfeldern aus dem YaST-Kontrollzentrum entsprechen. ↑Start).und Monitoreigenschaften“ (Kapitel 2. Systemkonfiguration mit YaST.1 Das Hauptfenster von SaX2 In der linken Navigationsleiste befinden sich sechs Elemente. ↑Start). Die im Folgenden erwähnten Abschnitte werden in Kapitel Systemkonfiguration mit YaST (↑Start) beschrieben. Maus Eine Beschreibung der Mauskonfiguration in der grafischen Umgebung finden Sie in Abschnitt „Mauseigenschaften“ (Kapitel 2. Systemkonfiguration mit YaST.Abbildung 14. Systemkonfiguration mit YaST. Tastatur Eine Beschreibung der Tastaturkonfiguration in der grafischen Umgebung finden Sie in Abschnitt „Tastatureigenschaften“ (Kapitel 2. ↑Start). 294 Referenz . Monitor Eine Beschreibung der Konfiguration des Monitors und der Grafikkarte finden Sie in Abschnitt „Karten.

Es wird von der X.Org Foundation weiterentwickelt. Detaillierte Informationen zur Konfiguration des X Window-Systems finden Sie in den verschiedenen Dateien im Verzeichnis /usr/share/doc/packages/Xorg und erhalten Sie durch Eingabe von man xorg. Es kann jedoch nicht garantiert werden. Grafikkarte. ↑Start).Org ist eine Open-Source-Implementierung des X Window-Systems. um eine bestmögliche Nutzung der verfügbaren Hardware wie Maus. VNC Eine Beschreibung der VNC-Konfiguration finden Sie in Abschnitt „Eigenschaften für entfernten Zugriff“ (Kapitel 2. Die folgenden Informationen basieren auf sorgfältiger Recherche. wenn Sie die Konfiguration des X Window-Systems ändern. 14. Einige Aspekte dieser Optimierung werden im Folgenden erläutert. ↑Start).conf. dass alle hier aufgeführten Methoden fehlerfrei sind und keinen Schaden an Ihrer Hardware verursachen können. Starten Sie auf keinen Fall das X Window-System. Das X Window-System 295 . Touchscreen Eine Beschreibung der Konfiguration des Touchscreens finden Sie in Abschnitt „Touchscreen-Eigenschaften“ (Kapitel 2.2 Optimierung der X-Konfiguration X. die auch für die Entwicklung neuer Technologien und Standards für das X Window-System verantwortlich ist. Ein falsch konfiguriertes System kann Ihre Hardware irreparabel beschädigen (dies gilt insbesondere für Monitore mit fester Frequenz). Die Konfiguration kann manuell angepasst werden. Die Autoren dieses Buchs und die Entwickler von SUSE Linux übernehmen keine Haftung für mögliche Schäden. Systemkonfiguration mit YaST. Systemkonfiguration mit YaST.Grafiktablett Eine Beschreibung der Konfiguration des Grafiktabletts finden Sie in Abschnitt „Tablet-Eigenschaften“ (Kapitel 2. WARNUNG Seien Sie sehr vorsichtig. Systemkonfiguration mit YaST. ↑Start). bevor die Konfiguration abgeschlossen ist. Monitor und Tastatur zu gewährleisten.

Hier finden Sie alle Einstellungen.conf Bedeutung In diesem Abschnitt werden die Pfade definiert. Die Abschnitte haben folgende Form: Section designation entry 1 entry 2 entry n EndSection Die verfügbaren Abschnittstypen finden Sie in Tabelle 14.conf beschrieben. die Grafikkarte. die jeweils für bestimmte Aspekte der Konfiguration verantwortlich sind. Die einzelnen Elemente dieses Abschnitts sind der Name. Sie ist in mehrere Abschnitte gegliedert.1. die Bandbreite (bandwidth) und die Grenzwerte für die Synchronisierungsfrequenz (HorizSync und VertRefresh).Die Programme SaX2 und xorgconfig erstellen die Datei xorg. Maus und Monitor betreffen. 296). auf den später in der Definition von Screen verwiesen wird. Dabei handelt es sich um die primäre Konfigurationsdatei für das X Window-System. Tabelle 14. Die Einstellungen sind in MHz. kHz und Hz angegeben. die den Spezifikationen des Moni- ServerFlags InputDevice Monitor 296 Referenz . „Abschnitte in /etc/X11/xorg. Normalerweise akzeptiert der Server nur Modeline-Werte. Hier werden allgemeine Parameter festgelegt.conf“ (S. In den folgenden Abschnitten wird die Struktur der Konfigurationsdatei /etc/X11/ xorg. Eingabegeräte wie Tastaturen und spezielle Eingabegeräte (Touchpads.) werden in diesem Abschnitt konfiguriert. Wichtige Parameter in diesem Abschnitt sind Driver und die Optionen für Protocol und Device.conf standardmäßig unter /etc/X11. Beschreibt den verwendeten Monitor.1 Typ Files Abschnitte in /etc/X11/xorg. Jeder Abschnitt beginnt mit dem Schlüsselwort Section <Bezeichnung> und endet mit EndSection. die für Schriften und die RGB-Farbtabelle verwendet werden. Joysticks usw.

conf. dass der Monitor versehentlich mit zu hohen Frequenzen angesteuert wird. Gerät Screen ServerLayout In diesem Abschnitt wird das Layout einer Single. welcher dieser Abschnitte genutzt wird. Details zur Bedeutung der einzelnen Zahlenwerte finden Sie in den HOWTO-Dateien unter /usr/share/doc/howto/en/ XFree86-Video-Timings-HOWTO. Diese Paramter können von SaX2 auf Grundlage der vom Benutzer vorgegebenen Werte berechnet werden und müssen in der Regel nicht geändert werden. Das X Window-System 297 . In diesem Fall gibt der darauf folgende Abschnitt ServerLayout an. In diesem Abschnitt wird eine bestimmte Grafikkarte definiert. Die Datei xorg. Dies verhindert.conf kann mehrere unterschiedliche Abschnitte vom Typ Monitor und Device enthalten. In diesem Abschnitt werden Kombinationen aus Eingabegeräten (InputDevice) und Anzeigegeräten (Screen) festgelegt. Monitor. Im Unterabschnitt Display können Sie die Größe des virtuellen Bildschirms (Virtual). Manchmal gibt es sogar mehrere Abschnitte vom Typ Screen. den ViewPort und die Modes für diesen Bildschirm festlegen. Device und Screen werden im Folgenden noch genauer erläutert.Org bereitzustellen.oder Multihead-Konfiguration beschrieben. Modes Hier werden Modeline-Parameter für die einzelnen Bildschirmauflösungen gespeichert. um alle erforderlichen Einstellungen für X. Sie wird mit ihrem beschreibenden Namen angeführt. Hier wird eine Verbindung zwischen einem Monitor und einer Grafikkarte (Device) hergestellt.Typ Bedeutung tors entsprechen.Org und xorg. Weitere Informationen zu den anderen Abschnitten finden Sie auf den Manualpages von X . Nehmen Sie hier beispielsweise dann Änderungen vor. wenn Sie einen Monitor mit fester Frequenz anschließen möchten.

1 Abschnitt „Screen“ der Datei /etc/X11/xorg. Diese Abschnitte werden weiter unten detailliert beschrieben. Die Zeilen Device und Monitor geben die Grafikkarte und den Monitor an. wenn er nicht mit einer bestimmten Farbtiefe gestartet wird.1. die der Server verwenden soll. Wählen Sie mit der Einstellung DefaultDepth die Farbtiefe aus.1 Abschnitt „Screen“ Der Abschnitt „Screen“ kombiniert einen Monitor mit einem Device-Abschnitt und legt fest. 298) aussehen. Nicht alle X-Server-Module unterstützen diese Werte. Beispiel 14. der als eindeutige Referenz im darauf folgenden Abschnitt ServerLayout verwendet werden kann. „Abschnitt „Screen“ der Datei /etc/X11/xorg. Mögliche Werte für Depth sind 8.2. Hierbei handelt es sich nur um Verbindungen zu den Abschnitten Device und Monitor mit ihren entsprechenden Namen bzw. die zu dieser Definition gehören. Das Schlüsselwort Depth weist die für diesen Unterabschnitt gültige Farbtiefe zu.conf“ (S.14. 16 und 24.conf Section „Screen“ DefaultDepth 16 SubSection "Display" Depth 16 Modes "1152x864" "1024x768" "800x600" Virtual 1152x864 EndSubSection SubSection "Display" Depth 24 Modes "1280x1024" EndSubSection SubSection "Display" Depth 32 Modes "640x480" EndSubSection SubSection "Display" Depth 8 Modes "1280x1024" EndSubSection Device "Device[0]" Identifier "Screen[0]" Monitor "Monitor[0]" EndSection In der Zeile Identifier (hier Screen[0]) wird für diesen Abschnitt ein Name vergeben. Kennungen (identifiers). 298 Referenz . Für jede Farbtiefe gibt es einen Unterabschnitt Display. welche Auflösung und Farbtiefe verwendet werden sollen. Der Abschnitt „Screen“ kann beispielsweise wie in Beispiel 14. 15.

den gesamten Arbeitsspeicher für den virtuellen Bildschirm zu verwenden. So lässt sich die Auflösung ändern. d.2. Die maximal mögliche Größe eines virtuellen Bildschirms ist von der Menge des Arbeitsspeichers auf der Grafikkarte und der gewünschten Farbtiefe abhängig. h. Die erste wird als Device[0]. während X ausgeführt wird. Es kann eine beliebige Anzahl von Grafikkarteneinträgen in xorg. Diese Liste wird vom X-Server von links nach rechts gelesen. Mit Strg + Alt + – (auf dem Ziffernblock) können Sie nach links wechseln. kann der virtuelle Bildschirm bei einer Farbtiefe von 8 Bit bis zu 4096 x 4096 Pixel groß sein. Die Einstellungen unter Monitor bestimmen die Modeline. Gegebenenfalls ist es aber nicht mehr möglich. können Sie sehr große virtuelle Desktops erstellen. Folgendes ist ein Auszug aus dem Abschnitt Device eines Computers mit einer Matrox Millennium-PCI-Grafikkarte: Section „Device“ BoardName "MGA2064W" BusID "0:19:0" Driver "mga" Identifier "Device[0]" VendorName "Matrox" Das X Window-System 299 . Als generelle Regel gilt. eingetragen. Wenn die Grafikkarte beispielsweise über 16 MB RAM verfügt. nicht jedoch von der maximalen Auflösung des Monitors. Die letzte Zeile des Unterabschnitts Display mit Depth 16 bezieht sich auf die Größe des virtuellen Bildschirms. Da moderne Grafikkarten über viel Grafikspeicher verfügen.und Grafik-Caches genutzt wird. die zweite als Device[1] usw. Die Modeline ist von den Fähigkeiten des Monitors und der Grafikkarte abhängig. Die erste passende Auflösung ist der Standardmodus (Default mode). dass bei der Installation mehrerer Grafikkarten die Abschnitte einfach der Reihe nach nummeriert werden. Mit Strg + Alt + + (auf dem Ziffernblock) können Sie zur nächsten Auflösung rechts in der Liste wechseln. Zu jeder Auflösung sucht der X-Server eine passende Modeline im Abschnitt Modes. 14. weil dieser Speicher auf der Karte auch für diverse Schrift.conf vorhanden sein. solange deren Namen sich unterscheiden. wenn ein virtueller Desktop den größten Teil des Grafikspeichers belegt. 3D-Funktionen zu nutzen.2 Abschnitt „Device“ Im Abschnitt „Device“ wird eine bestimmte Grafikkarte beschrieben.Unterhalb der Farbtiefe wird eine Liste der Auflösungen im Abschnitt Modes festgelegt. Insbesondere bei beschleunigten Grafikkarten ist es nicht empfehlenswert. solange ein eindeutiger Name mithilfe des Schlüsselworts Identifier festgelegt ist.

die im Abschnitt „Device“ festgelegt wird. beschreiben die Abschnitte Monitor und Modes jeweils einen Monitor. Monitordefinitionen sollten nur von erfahrenen Benutzern festgelegt werden. Diese finden Sie in den Beschreibungsdateien der Treibermodule im Verzeichnis /usr/X11R6/lib/X11/doc. Über den Parameter Driver geben Sie den Treiber an. heißt das Treibermodul mga. Wenn es sich um eine Matrox Millennium-Grafikkarte handelt. des Treibers kann außerdem durch weitere Optionen beeinflusst werden. der im Abschnitt Files des Unterverzeichnisses drivers angegeben ist. Ein Beispiel hierfür ist die Option sw_cursor.o wird an den Namen angehängt. welcher Monitor-Abschnitt zu verwenden ist. Dieser entspricht der ID. Diese deaktiviert den Hardware-Mauszeiger und stellt den Mauszeiger mithilfe von Software dar. Modelines legen die horizontalen und vertikalen Frequenzen für die jeweilige Auflösung fest.o geladen wird. Das Verhalten des X-Servers bzw. Anschließend durchsucht der X-Server den ModulePath.conf und man X. Der Wert unter BusID steht für den PCI.oder AGP-Steckplatz. Allgemein gültige Optionen finden Sie außerdem auf den entsprechenden Manualpages (man xorg.conf kann beliebig viele Abschnitte vom Typ Monitor enthalten. Der X-Server benötigt Details im Dezimalformat. Bei einer Standardinstallation handelt es sich hierbei um das Verzeichnis /usr/X11R6/lib/ modules/drivers. sodass beispielsweise im Falle des mga-Treibers die Treiberdatei mga_drv.Option EndSection "sw_cursor" Wenn Sie SaX2 für die Konfiguration einsetzen. Die Konfigurationsdatei /etc/X11/xorg. in dem die Grafikkarte installiert ist. _drv. sollte der Abschnitt „Device“ in etwa wie in diesem Beispiel aussehen.2. lspci zeigt diese jedoch im Hexadezimalformat an. der für diese Grafikkarte verwendet werden soll.3 Abschnitte „Monitor“ und „Modes“ So wie die Abschnitte vom Typ Device jeweils für eine Grafikkarte verwendet werden. Abhängig vom Treibermodul können verschiedene Optionen verfügbar sein. 14. die bei Eingabe des Befehls „lspci“ angezeigt wird.Org). Der Abschnitt „ServerLayout“ gibt an. Die 300 Referenz . Die Modelines stellen einen bedeutenden Teil der Monitor-Abschnitte dar. Die Einträge unter Driver und BusID sind von der Hardware Ihres Computer abhängig und werden automatisch von SaX2 erkannt.

und Grafikkartenfunktionen verfügen. Damit die Schriften verwendet werden können. In ihm wird detailliert beschrieben.conf konfiguriert sind (siehe Abschnitt 14. WARNUNG Wenn Sie nicht über fundierte Kenntnisse zu Monitor. insbesondere die zulässigen Frequenzen. Alternativ kann diese Aktion auch mithilfe des KDE-Schrift-Installationsprogramms im KDEKontrollzentrum durchgeführt werden. Wenn Sie mit einem modernen Multisync-Monitor arbeiten. beispielsweise /usr/X11R6/lib/X11/fonts/truetype. Falls Sie Ihre eigenen Monitorbeschreibungen entwickeln möchten. 14. wie die Hardware funktioniert und wie Modelines zu erstellen sind. In diesem Zusammenhang soll besonders auf den Abschnitt zu den Grafikmodi hingewiesen werden. sollten Sie an den Modelines keine Änderungen vornehmen. Ist dies aus irgendeinem Grund nicht möglich. weil dies Ihren Monitor schwer beschädigen kann. Kopieren Sie einfach die Schriften in ein beliebiges Verzeichnis im X11-Pfad für Schriften (siehe Abschnitt 14. 302)). kopiert werden.2. 303)). sollten Sie sich genauestens mit der Dokumentation unter /usr/X11/lib/X11/doc vertraut machen. können Sie auf einen der VESA-Modi des XServers zurückgreifen. Heutzutage ist es nur sehr selten erforderlich. die in /etc/fonts/fonts. wie im SaX2-Konfigurationsabschnitt beschrieben. werden im Abschnitt Monitor gespeichert. Modelines manuell festzulegen. „X11 Core-Schriften“ (S.1. „Xft“ (S. sollte das Installationsverzeichnis ein Unterverzeichnis der Verzeichnisse sein. Dies funktioniert in Verbindung mit praktisch allen Kombinationen aus Grafikkarte und Monitor. Die Schriftdateien können manuell (vom root) in ein geeignetes Verzeichnis.3. Das Ergebnis ist dasselbe. können die zulässigen Frequenzen und die optimalen Auflösungen in aller Regel vom X-Server direkt per DDC vom Monitor abgerufen werden.3. Das X Window-System 301 .Monitoreigenschaften.3 Installation und Konfiguration von Schriften Die Installation zusätzlicher Schriften unter SUSE Linux ist sehr einfach.

Dies wird durch Verwendung der Variablen FontPath erreicht.Anstatt die eigentlichen Schriften zu kopieren. wenn Sie lizenzierte Schriften auf einer gemounteten Windows-Partition haben und diese nutzen möchten. in der die Pfade zu allen gültigen Schriftverzeichnissen des Systems vermerkt sind. sondern auch skalierbare Schriften wie Type1-.und OpenType-Schriften sowie Type1Schriften (PostScript) dieselbe. X.3.3.1 X11 Core-Schriften Heute unterstützt das X11 Core-Schriftsystem nicht nur Bitmap-Schriften. Weitere Informationen hierzu finden Sie in Abschnitt 14. Skalierbare Schriften werden nur ohne Antialiasing und SubpixelRendering unterstützt und das Laden von großen skalierbaren Schriften mit Zeichen für zahlreiche Sprachen kann sehr lange dauern. 14. Es ist überholt und kann nicht mehr sinnvoll erweitert werden. Das X11 Core-Schriftsystem weist mehrere grundsätzliche Schwächen auf.dir aufge- 302 Referenz . das sich um die Konfiguration der Schriften kümmert. In jedem dieser Verzeichnisse sind die dort verfügbaren Schriften in einer Datei mit dem Namen fonts. Führen Sie anschließend SuSEconfig --module fonts aus. Der X-Server muss die verfügbaren Schriften und deren Speicherorte im System kennen. doch das modernere System „Xft/fontconfig“ sollte immer verwendet werden. Alle diese Schriften können in einem beliebigen Verzeichnis installiert werden. Zwar muss es noch aus Gründen der Abwärtskompatibilität beibehalten werden. Unicode-Schriften werden ebenfalls unterstützt.Org enthält zwei völlig unterschiedliche Schriftsysteme: das alte X11 Core-Schriftsystem und das neu entwickelte System Xft/fontconfig. Weitere Informationen zur Arbeitsweise dieses Skripts finden Sie auf der Manualpage des Skripts (man fonts-config). In den folgenden Abschnitten wird kurz auf diese beiden Systeme eingegangen. können Sie auch symbolische Links erstellen.3. „CID-keyed-Schriften“ (S. aber ihre Verwendung kann mit erheblichem Zeitaufwand verbunden sein und erfordert mehr Speicher. Die Vorgehensweise ist für Bitmap-.und OpenType-Schriften sowie CIDkeyed-Schriften. TrueType. wenn es möglich ist. TrueType. 307). Nur für CID-keyed-Schriften ist eine geringfügig unterschiedliche Vorgehensweise erforderlich. Beispielsweise kann dies sinnvoll sein. SuSEconfig --module fonts startet das Skript /usr/sbin/fonts-config.

die unter SUSE Linux zur Verfügung stehen. wie die Zeichen gerendert werden.2 Xft Die Programmierer von Xft haben von Anfang an sichergestellt. Zusätzliche Pfade werden mithilfe von xset +fp <Pfad> hinzugefügt. der den X-Server gestartet hat. Auf diese Weise hat die jeweilige Anwendung Zugriff auf die eigentlichen Schriftdateien und kann genau steuern. ist dies nur möglich.führt. dass auch skalierbare Schriften. die in der von xlsfonts ausgegebenen Liste auf iso10646-1 enden). Wenn der X-Server bereits aktiv ist. Bei Verwendung von Xft werden die Schriften von der Anwendung. Geben Sie hierzu su und das root-Passwort ein. wenn SuSEconfig --module fonts von einer Shell aus gestartet wird. und nicht vom X-Server gerendert.dir-Datei. Dieser Befehl wird von SuSEconfig --module fonts ausgeführt. wie es beim X11 Core-Schriftsystem der Fall ist. um alle verfügbaren Schriften aufzulisten. wenn Schriften für die Druckausgabe eingebettet Das X Window-System 303 . Dieser Pfad kann auch zur Laufzeit mit dem Befehl „xset“ geändert werden. geben Sie den Befehl xlsfonts ein. die die Schriften nutzt. su überträgt die Zugriffsberechtigungen des Benutzers. Praktisch alle Unicode-Schriften. die Antialiasing nutzen. die Zugriff auf den laufenden X-Server hat. ob die Schriften ordnungsgemäß installiert wurden und über das X11 Core-Schriftsystem verfügbar sind. Da zur Ausführung des Befehls xset Zugriff auf den laufenden X-Server erforderlich ist. können Sie neu installierte Schriften in gemounteten Verzeichnissen mit dem Befehl xset fp rehash verfügbar machen. Der FontPath wird vom X-Server beim Systemstart erzeugt. Dies bildet eine optimale Basis für die ordnungsgemäße Textdarstellung für zahlreiche Sprachen. Direkter Zugriff auf die Schriftdateien ist sehr nützlich. Am einfachsten lässt sich dies mit root-Berechtigungen erreichen. Diese Einträge befinden sich im Abschnitt Files. nach einer gültigen fonts. Unerwünschte Pfade lassen sich mit xset -fp <Pfad> löschen. 14. an die root-Shell.3. Daher sollten nach Möglichkeit Unicode-Schriften verwendet werden (Schriftnamen.conf verweisen. umfassen zumindest die für europäische Sprachen erforderlichen Schriftzeichen (früher als iso-8859-* kodiert). Der FontPath lässt sich mit dem Befehl xset q anzeigen. Alle verfügbaren UnicodeSchriften lassen sich über den Befehl xlsfonts | grep iso10646-1 auflisten. problemlos unterstützt werden. Der Server sucht an jedem Speicherort. auf den die FontPath-Einträge der Konfigurationsdatei /etc/ X11/xorg. Standardmäßig arbeitet SUSE Linux mit UTF-8-Gebietsschemata. Wenn Sie überprüfen möchten.

conf eingetragen. Standardmäßig ist das benutzerspezifische Verzeichnis ~/.conf bestimmt. Entsprechend müssen Sie die zusätzlichen Schriften einfach nur nach ~/.dtd"> <fontconfig> Enden müssen die Dateien wie folgt: </fontconfig> Wenn Sie möchten.werden sollen.fonts bereits in die Datei /etc/fonts/fonts.fonts.conf und die benutzerspezifische Konfigurationsdatei ~/. um sie zu installieren. dass weitere Verzeichnisse nach Schriften durchsucht werden sollen. Die Eigenschaften von „fontconfig“ werden durch die globale Konfigurationsdatei /etc/fonts/fonts.0"?> <!DOCTYPE fontconfig SYSTEM "fonts. So lässt sich sicherstellen. die die Darstellung der Schriften beeinflussen.fonts kopieren. fügen Sie Zeilen in der folgenden Weise hinzu: <dir>/usr/local/share/fonts/</dir> Dies ist jedoch in der Regel nicht erforderlich. Jede dieser fontconfig-Konfigurationsdateien muss folgendermaßen beginnen: <?xml version="1. Xft wird inwischen von mehr Anwendungen genutzt als das alte X11 Core-Schriftsystem. dass der Ausdruck genau der Bildschirmdarstellung entspricht. Unter SUSE Linux nutzen die beiden Desktopumgebungen KDE und GNOME sowie Mozilla und zahlreiche andere Anwendungen bereits standardmäßig Xft. Xft greift für die Suche nach Schriften und für deren Darstellung auf die fontconfigBibliothek zurück. Außerdem können Sie Regeln angeben. Wenn Sie hingegen <match target="font"> <test name="family"> <string>Luxi Mono</string> <string>Luxi Sans</string> </test> 304 Referenz . Geben Sie beispielsweise Folgendes ein: <match target="font"> <edit name="antialias" mode="assign"> <bool>false</bool> </edit> </match> Hierdurch wird das Antialiasing für alle Schriften aufgehoben.

Daher können Sie nahezu überall sehr einfach Ihre Lieblingsschriften verwenden. Benutzer können problemlos Regeln zur Datei ~/. Schnitt (style) und Stärke (weight) sowie die Namen der entsprechenden Schriftdateien anzeigen möchten. Standardmäßig verwenden die meisten Anwendungen die Schriftbezeichnungen sans-serif (bzw. sondern nur um Aliasnamen. ohne die Schrifteinstellungen in den einzelnen Anwendungen ändern zu müssen. sans). die je nach Spracheinstellung in eine passende Schrift umgesetzt werden. Mit dem Befehl fc-list finden Sie heraus. damit diese Aliasnamen in ihre bevorzugten Schriften umgesetzt werden: <alias> <family>sans-serif</family> <prefer> <family>FreeSans</family> </prefer> </alias> <alias> <family>serif</family> <prefer> <family>FreeSerif</family> </prefer> </alias> <alias> <family>monospace</family> <prefer> <family>FreeMono</family> </prefer> </alias> Da fast alle Anwendungen standardmäßig mit diesen Aliasnamen arbeiten. geben Sie folgenden Befehl ein: fc-list ":lang=he:scalable=true" family style weight Das X Window-System 305 . Wenn Sie wissen möchten.<edit name="antialias" mode="assign"> <bool>false</bool> </edit> </match> eingeben. welche Schriften installiert sind und verwendet werden können.conf hinzufügen. Der Befehl fc-list gibt eine Liste aller Schriften zurück. welche der skalierbaren Schriften (:scalable=true) alle erforderlichen Zeichen für Hebräisch (:lang=he) enthalten und Sie deren Namen (family).fonts. wird das Antialiasing nur für bestimmte Schriften aufgehoben. Hierbei handelt es sich nicht um eigentliche Schriften. serif oder monospace. betrifft diese Änderung praktisch das gesamte System.

ttf: FreeSerif:style=BoldItalic:weight=200 FreeSansOblique. FreeSans. die mit dem Befehl fc-list abgefragt werden können: Tabelle 14. Medium.ttf: FreeSerif:style=Bold:weight=200 FreeSansBoldOblique. zh-TW für traditionelles Chinesisch oder zh-CN für vereinfachtes Chinesisch.ttf: FreeSans:style=Bold:weight=200 FreeMonoBoldOblique. die von dieser Schrift unterstützt wird. 80 für normale Schrift oder 200 für Fettschrift. Der Hersteller der Schrift. Die Sprache.ttf: FreeMono:style=Medium:weight=80 FreeSans. z.ttf: FreeMono:style=Bold:weight=200 In der folgenden Tabelle finden Sie wichtige Parameter. Der Name der Schriftdatei.ttf: FreeSerif:style=Medium:weight=80 FreeSerifBoldItalic. Die Schriftneigung.ttf: FreeMono:style=BoldOblique:weight=200 FreeSerif. B.ttf: FreeSans:style=Medium:weight=80 FreeSerifBold. z. de für Deutsch. z. z.ttf: FreeSans:style=Oblique:weight=80 FreeSerifItalic. Der Schriftschnitt.2 Parameter family foundry style Parameter zur Verwendung mit fc-list Bedeutung und zulässige Werte Der Name der Schriftamilie. B. B. z. in der Regel 0 für gerade Schrift und 100 für Kursivschrift.ttf: FreeSerif:style=Italic:weight=80 FreeMonoOblique.ttf: FreeMono:style=Oblique:weight=80 FreeMono. Italic oder Heavy. urw. Die Schriftstärke. Regular.ttf: FreeSans:style=BoldOblique:weight=200 FreeMonoBold. B.Auf diesen Befehl kann beispielsweise Folgendes zurückgegeben werden: FreeSansBold. Bold. B. lang weight slant file 306 Referenz . ja für Japanisch.

html. In Verbindung mit dem Befehl "fclist" ist diese Option nur bei Bitmap-Schriften sinnvoll.4. CID-keyed-Schriften müssen in /usr/ share/ghostscript/Resource/CIDFont installiert werden. 14. ist jedoch für Ghostscript und das X11 Core-Schriftsystem erforderlich. 308) bietet eine Übersicht.3.org/current/fonts. bitmap pixelsize 14.4 OpenGL – 3D-Konfiguration 14. TIPP Weitere Informationen zu Schriften unter X11 finden Sie unter http://www . Schriftgröße in Pixel. Das X Window-System 307 .3.3 CID-keyed-Schriften Im Gegensatz zu den anderen Schrifttypen können Sie CID-keyed-Schriften nicht einfach in einem beliebigen Verzeichnis installieren.xfree86. „Unterstützte 3D-Hardware“ (S. Dies gilt nicht für Xft/fontconfig.1 Hardware-Unterstützung SUSE Linux beinhaltet mehrere OpenGL-Treiber zur Unterstützung von 3D-Hardware. Tabelle 14. true für Bitmap-Schriften oder false für sonstige Schriften.Parameter outline scalable Bedeutung und zulässige Werte true für Konturschriften oder false für sonstige Schriften. true für skalierbare Schriften oder false für sonstige Schriften.

um zu prüfen. Sie hängt vom verwendeten OpenGLTreiber ab.Tabelle 14.4. ist die Prozedur für das Konfigurieren der 3D-Hardware-Unterstützung eine andere. nehmen Sie den Benutzer mithilfe von YaST in die Gruppe auf. Für nVidia-Grafikchips muss zuvor der nVidia-Treiber installiert werden. 14. Intel 845G/852GM/855GM/865G/915G.915GM/945G Matrox G200/G400/G450/G550. Verwenden Sie den Befehl id. um zu prüfen. Aus Sicherheitsgründen dürfen nur Benutzer. Aus Lizenzgründen ist der nVidia-Treiber in diesem Paket nicht inbegriffen. dass alle lokalen Benutzer Mitglieder dieser Gruppe sind. Weitere Einzelheiten erhalten Sie im folgenden Abschnitt. Wählen Sie dafür den nVidia-TreiberPatch in YOU (YaST Online Update) aus. Andernfalls wird die langsame Software-Rendering-Ausweichlösung des OpenGL-Treibers für OpenGL-Anwendungen benutzt. ATI Rage 128(Pro)/Radeon (bis 9250) OpenGL-Treiber nVidia DRI Wenn Sie das erste Mal mit YaST installieren. kann bei der Installation 3D-Beschleunigung aktiviert werden. auf die 3D-Hardware zugreifen.3 Unterstützte 3D-Hardware Unterstützte Hardware nVidia-Chips: alle außer einigen veralteten Chipsätzen (GeForce2 und älter) Intel i810/i815/i830M. ob der aktuelle Benutzer der Gruppe video angehört. Wenn dies nicht der Fall ist.2 OpenGL-Treiber Die OpenGL-Treiber nVidia und DRI lassen sich einfach mit SaX2 konfigurieren. die der Gruppe video angehören. sofern YaST 3D-Unterstützung erkennt. Für nVidia-Adapter muss zuvor der nVidia-Treiber installiert werden. Wenn Sie stattdessen Ihr System aktualisieren. ob die Konfiguration für nVidia oder DRI korrekt ist. 308 Referenz . Geben Sie den Befehl 3Ddiag ein. Stellen Sie daher sicher.

14.4.3 Das Diagnosewerkzeug 3Ddiag
Das Diagnosewerkzeug 3Ddiag ermöglicht die Überprüfung der 3D-Konfiguration in SUSE Linux. Dabei handelt es sich um ein Befehlszeilenwerkzeug, das in einem Terminalfenster gestartet werden muss. Geben Sie 3Ddiag -h ein, um mögliche Optionen für 3Ddiag aufzulisten. Um die X.Org-Konfiguration zu verifizieren, prüft das Werkzeug, ob die für 3DUnterstützung erforderlichen Pakete installiert sind und die korrekte OpenGL-Bibliothek und GLX-Erweiterung verwendet werden. Befolgen Sie die Anweisungen von 3Ddiag, wenn Sie Fehlermeldungen erhalten. Wenn alles korrekt ist, sehen Sie am Bildschirm nur Meldungen mit "done" (fertig).

14.4.4 OpenGL-Test-Dienstprogramme
Für das Testen von OpenGL können das Programm glxgears und Spiele wie tuxracer und armagetron (Pakete haben denselben Namen) nützlich sein. Wenn 3D-Unterstützung aktiviert wurde, sollte es möglich sein, diese drei reibungslos auf einem relativ neuen Computer auszuführen. Ohne 3D-Unterstützung würden diese Spiele sehr langsam ablaufen (Diashow-Effekt). Verwenden Sie den Befehl glxinfo, um zu prüfen, ob 3D aktiv ist. Wenn ja, enthält die Ausgabe eine Zeile mit direct rendering: Yes (Direktes Rendering: Ja).

14.4.5 Fehlerbehebung
Wenn die OpenGL-3D-Testergebnisse negativ sind (die Spiele laufen nicht reibunglos), verwenden Sie 3Ddiag, um sicherzustellen, dass die Konfiguration keine Fehler enthält (Fehlermeldungen). Wenn die Korrektur nicht hilft oder keine Fehlermeldungen aufgetaucht sind, sehen Sie die X.Org-Protokolldateien an. Häufig finden Sie in der X.Org-Datei /var/log/Xorg.0.log die Zeile DRI is disabled (DRI ist deaktiviert). Die genaue Ursache lässt sich nur durch genaue Prüfung der Protokolldatei erkennen – eine Aufgabe, die einige Erfahrung voraussetzt. In solchen Fällen liegt kein Konfigurationsfehler vor, da diesen bereits 3Ddiag erkannt hätte. Daher besteht an dieser Stelle nur die Möglichkeit, die Software-RenderingAusweichlösung des DRI-Treibers zu verwenden, die keine 3D-Hardwareunterstützung

Das X Window-System

309

bietet. Sie sollten auch bei Auftreten von OpenGL-Darstellungsfehlern oder Instabilität ohne 3D-Unterstützung arbeiten. Verwenden Sie SaX2, um 3D-Unterstützung vollständig zu deaktivieren.

14.4.6 Installationssupport
Abgesehen von der Software-Rendering-Ausweichlösung des DRI-Treibers befinden sich einige OpenGL-Treiber in Linux noch in der Entwicklungsphase und werden daher als experimentell betrachtet. Diese Treiber sind wegen der hohen Anforderung für 3D-Hardwarebeschleunigung in Linux im Paket enthalten. In Anbetracht des experimentellen Status von einigen OpenGL-Treibern kann SUSE keinen Installationssupport für die Konfiguration von 3D-Hardwarebeschleunigung geben oder bei zugehörigen Problemen weiteren Beistand leisten. Die Basiskonfiguration der grafischen Benutzeroberfläche (X Window System) umfasst keine Konfiguration für 3D-Hardwarebeschleunigung. Wenn Sie Probleme mit der 3D-Hardwarebeschleunigung feststellen, wird empfohlen, die 3D-Unterstützung vollständig zu deaktivieren.

14.4.7 Weitere Informationen
Informationen erhalten Sie in den README-Dateien unter /usr/X11R6/lib/X11/ doc. Weitere Informationen zur nVidia-Treiberinstallation finden Sie unter http:// www.suse.de/~sndirsch/nvidia-installer-HOWTO.html.

310

Referenz

FreeNX: Fernsteuerung eines anderen Computers

15

FreeNX ist eine GPL-Implementierung von NX-Server für entfernten Zugriff auf und Anzeige von einem anderen Computer. Es bietet beinahe die Reaktionsgeschwindigkeit einer lokalen Anwendung über Verbindungen mit hoher Latenz und geringer Bandbreite.

15.1 Erste Schritte in NX
Die folgenden Schritte umreißen das grundlegende Verfahren beim Einrichten von NX für bis zu 10 Clients, die mit dem NX-Server verbunden sein können: 1 Installieren Sie die folgenden Pakete auf dem Server- und Client-Rechner mithilfe des YaST-Moduls „Software installieren oder löschen“: Server-Rechner • NX • FreeNX Client-Rechner • NX • knx (für KDE-Sitzungen) • NoMachine nxclient (für Nicht-KDESitzungen)

FreeNX: Fernsteuerung eines anderen Computers

311

2 Richten Sie den NX-Server ein, indem Sie den folgenden Befehl als „root“ eingeben:
nxsetup --install --clean --purge --setup-nomachine-key

Der Server wird entsprechend den Standardeinstellungen in /etc/nxserver/ node.conf ausgeführt. Jeder Benutzer kann eine Verbindung von einer anderen Arbeitsstation aus aufbauen. Informationen zur erweiterten X-Server-Konfiguration finden Sie unter Abschnitt 15.2, „Erweiterte FreeNX-Konfiguration“ (S. 314). Wenn Sie eine sicherere Einrichtung mit privaten Schlüsseln für jeden Client wünschen, beachten Sie die Anleitungen unter Abschnitt 15.2.1, „Konfigurieren von SSH-Authentifizierung mit Client-Schlüsseln“ (S. 314). 3 Konfigurieren Sie die Firewall auf dem Rechner, der den NX-Server bereitstellt, um NX-Verbindungen zu erlauben. a Melden Sie sich am Server-Rechner als „root“ an und starten Sie das YaSTFirewall-Modul. b Wählen Sie Erlaubte Dienste, um das Dialogfeld für die Servicekonfiguration zu öffnen, und wählen Sie Externe Zone. c Wählen Sie Erweitert, um die Portdaten für NX einzugeben. d Öffnen Sie die Ports 22 (SSH), 5000 bis 5009 sowie 7000 bis 7009, um NXDatenverkehr zu gestatten. Geben Sie hierzu Folgendes in TCP-Ports ein:
22 5000:5009 7000:7009

e Speichern Sie Ihre Einstellungen und starten Sie die Firewall neu, indem Sie OK → Weiter → Übernehmen wählen.

TIPP Weitere Informationen über Firewall-Konfiguration für NX finden Sie in /usr/ share/doc/packages/FreeNX/NX-Firewall.txt. Für eine Verbindung zu einer anderen Arbeitsstation und die Verwendung von KDE als Ihren Desktop gehen Sie wie folgt vor:

312

Referenz

1 Starten Sie KNX über das Hauptmenü. 2 Bei Ihrer ersten Anmeldung müssen Sie eine neue Verbindung einrichten. Führen Sie folgende Schritte aus, um eine Verbindung einzurichten: a Klicken Sie in KNX Client Login (KNX-Client-Anmeldung) auf Connection Settings (Verbindungseinstellungen). b Geben Sie einen Namen für die Verbindung ein, zum Beispiel den Namen des Servers. c Geben Sie Hostinformationen, die Portnummer und die Bandbreite für Ihre Verbindung ein. d Wählen Sie aus Sessiontype (Sitzungstyp) die Option UNIX/KDE, um eine KDE-Sitzung zu starten. e Wählen Sie eine Bildschirmauflösung. f Klicken Sie auf OK. 3 Sobald die Verbindung besteht und die Fernverbindung an Ihrem Bildschirm angezeigt wird, können Sie auf Anwendungen zugreifen und den entfernten Computer so nutzen, als würden Sie direkt an ihm sitzen. Für eine Verbindung zu einem anderen Rechner mit GNOME als Ihrem Desktop gehen Sie wie folgt vor: 1 Laden Sie das nxclient-Paket von NoMachine über http://www.nomachine .com/download_client_linux.php herunter und installieren Sie es. 2 Starten Sie den NX Connection Wizard (NX-Verbindungsassistent) über das Hauptmenü. 3 Gehen Sie in den folgenden drei Schritten vor: Geben Sie den Namen von Verbindung, Port- und Hostdaten sowie Verbindungstyp ein. Wählen Sie den Sitzungstyp Unix/Gnome. Entscheiden Sie, ob eine Verknüpfung auf Ihrem Desktop erscheinen soll, und klicken Sie auf Finish (Beenden).

FreeNX: Fernsteuerung eines anderen Computers

313

4 Klicken Sie für eine Verbindung zum entfernten Desktop auf die NX-Verknüpfung auf Ihrem Desktop, geben Sie den Benutzernamen sowie das Passwort an und klicken Sie auf OK. Der entfernte Desktop wird an Ihrem Bildschirm angezeigt.

15.2 Erweiterte FreeNX-Konfiguration
Die folgenden Abschnitte stellen einige erweiterte Funktionen vor, die hauptsächlich in komplexeren NX-Szenarien benötigt werden.

15.2.1 Konfigurieren von SSH-Authentifizierung mit Client-Schlüsseln
Die in Abschnitt 15.1, „Erste Schritte in NX“ (S. 311) konfigurierte Authentifizierung verlässt sich einzig auf die Angabe von Benutzername und Passwort. Für eine sicherere Authentifizierung lässt sich NX so konfigurieren, dass es ein Paar von SSH-Schlüsseln generiert. Der Client-Schlüssel wird dann vom Server-Rechner an einen beliebigen Client kopiert, dem eine Verbindung zum NX-Server erlaubt sein soll. Clients, die diesen Schlüssel nicht angeben, können beim NX-Server nicht authentifiziert werden. Diese Funktion wird nur für die Kombination FreeNX-Server/knx-Client unterstützt. Gehen Sie wie folgt vor, um den NX-Server für die Verwendung dieser Authentifizierungsmethode zu konfigurieren und das geeignete Schlüsselpaar zu generieren: 1 Melden Sie sich als „root“ am Server-Rechner an. 2 Öffnen Sie die Server-Konfigurationsdatei /etc/nxserver/node.conf und stellen Sie sicher, dass ENABLE_SSH_AUTHENTICATION auf 1 eingestellt ist. (Das sollte der Standard sein.) 3 Installieren Sie den Server mit folgendem Befehl:
nxsetup --install --clean --purge

314

Referenz

4 Ändern Sie die Zugriffsberechtigungen auf /var/lib/nxserver/home/ .ssh/authorized_keys2:
chmod 640 /var/lib/nxserver/home/.ssh/authorized_keys2

5 Melden Sie sich ab. Gehen Sie wie folgt vor, um knx zur Verwendung dieses Schlüssels zu konfigurieren: 1 Melden Sie sich am Server-Rechner als „root“ an. 2 Kopieren Sie die Schlüsseldatei an den Ort auf dem Client-Rechner, an dem knx sie braucht, und ersetzen Sie client durch die Adresse des Clients.
scp /var/lib/nxserver/home/.ssh/client.id_dsa.key client:/usr/share/knx/

3 Melden Sie sich als „root“ am Client-Rechner an. 4 Passen Sie die Zugriffsberechtigungen wie folgt an:
chmod 644 /usr/share/knx/client.id_dsa.key

5 Melden Sie sich ab.

15.2.2 Konfigurieren der PAM-Authentifizierung
Standardmäßig gestattet FreeNX jedem Benutzer, eine NX-Sitzung zu öffnen, vorausgesetzt der Benutzer ist in der Benutzerdatenbank Ihres Servers aufgeführt (lokal oder über LDAP, NIS usw.). Dieses Verhalten wird durch die Variable ENABLE_PAM_AUTHENTICATION in /usr/bin/nxserver auf dem Server umgeschaltet. Der Standardwert lautet hier 1. Wenn Sie ihn auf 0 setzen, wird die von PAM vermittelte Benutzerauthentifizierung (PAM_AUTH) für FreeNX deaktiviert. Wenn ENABLE_PAM_AUTHENTICATION auf 0 gesetzt ist, müssen Sie Benutzer und Passwörter manuell hinzufügen. Zum Hinzufügen von lokalen NX-Benutzern auf dem Server gehen Sie wie folgt vor: 1 Melden Sie sich am Server-Rechner als „root“ an.

FreeNX: Fernsteuerung eines anderen Computers

315

2 Stellen Sie sicher, dass jeder Benutzer, den Sie hinzufügen möchten, in der Systemdatenbank der lokalen Benutzer aufgeführt ist. Prüfen Sie dazu den Inhalt von /etc/passwd oder verwenden Sie das YaST-Modul „Benutzerverwaltung“. 3 Fügen Sie für jeden gewünschten Benutzer den Benutzernamen mit dem Befehl nxserver --adduser hinzu. Fügen Sie dann das Passwort des Benutzers mit nxserver --passwd hinzu. 4 Starten Sie den Server mit nxserver --restart neu und melden Sie sich ab.

15.2.3 Verwenden von systemweiten und benutzerspezifischen Konfigurationsdateien
Das Verhalten des FreeNX-Servers wird über /etc/node.conf gesteuert. Sie können eine globale NX-Server-Konfiguration ausführen oder den Server mit benutzerspezifischen Konfigurationen betreiben. Das kommt ins Spiel, wenn verschiedene Benutzer NX auf einem Rechner mit anderen Anforderungen ausführen. Im folgenden Beispiel wird angenommen, dass der Benutzer joe einen automatischen Start von NX mit einer bestimmten Anwendung möchte, sobald er eine NX-Sitzung öffnet. Gehen Sie wie folgt vor, um dieses Verhalten nur für diesen Benutzer festzulegen: 1 Melden Sie sich als „root“ an. 2 Wechseln Sie in das Verzeichnis /etc/nxserver:
cd /etc/nxserver

3 Speichern Sie eine Kopie der Konfigurationsdatei des NX-Servers (node.conf) unter joe.node.conf im selben Verzeichnis. 4 Bearbeiten Sie die entsprechenden Parameter (NODE_AUTOSTART und ENABLE_AUTORECONNECT) in joe.node.conf. Weitere Informationen zu diesen Funktionen finden Sie in Abschnitt 15.2.5, „Konfigurieren von automatisch gestarteten Tasks und Exportieren von Konfigurationen“ (S. 318) und Abschnitt 15.2.4, „Aussetzen und Wiederaufnehmen von NX-Sitzungen“ (S. 317).

316

Referenz

5 Installieren Sie den NX-Server neu, um die neue Konfiguration zu aktivieren:
nxsetup --install --clean --purge --setup-nomachine-key

Die benutzerspezifische Konfiguration überschreibt die globale Konfiguration. 6 Melden Sie sich ab.

15.2.4 Aussetzen und Wiederaufnehmen von NX-Sitzungen
Wie bei Sitzungen auf einem mobilen Computer kann NX auch so konfiguriert werden, dass das Aussetzen und Wiederaufnehmen von Benutzersitzungen möglich ist. Eine ausgesetzte Sitzung wird wieder genau in dem Zustand geöffnet, in dem sie verlassen wurde. Gehen Sie wie folgt vor, um das Aussetzen und Wiederaufnehmen von NX-Sitzungen zu konfigurieren: 1 Melden Sie sich als „root“ an. 2 Öffnen Sie die Konfigurationsdatei des Servers, /etc/nxserver/node .conf, und bearbeiten Sie sie wie folgt:
ENABLE_PASSDB_AUTHENTICATION="0" ENABLE_USER_DB="0" ENABLE_AUTORECONNECT="1"

3 Speichern und schließen Sie die Konfigurationsdatei und starten Sie den Server mit nxserver --restart neu. 4 Melden Sie sich ab. Um eine Sitzung beim Beenden auszusetzen, klicken Sie auf das X in der oberen rechten Ecke Ihres NX-Fensters und wählen Sie Suspend (Aussetzen), um Ihre Sitzung auszusetzen und den Client zu beenden. Bei der erneuten Verbindung werden Sie gefragt, ob Sie die vorherige Sitzung wiederaufnehmen oder eine neue beginnen möchten.

FreeNX: Fernsteuerung eines anderen Computers

317

15.2.5 Konfigurieren von automatisch gestarteten Tasks und Exportieren von Konfigurationen
FreeNX bietet eine Autostart-Funktion, mit deren Hilfe Sie bestimmte Tasks bei Start oder Wiederaufnahme einer NX-Sitzung starten können, vorausgesetzt die zugrunde liegende Anwendung unterstützt die Eigenschaften für start (Start) und resume (Wiederaufnahme). Beispielsweise können Sie beim Start von FreeNX automatisch den Desktop aufräumen oder andere automatisch gestartete Aufgaben ausführen. Dies ist besonders nützlich, wenn Sie wieder eine Verbindung zu einer Sitzung aufbauen, selbst von einem anderen NX-Client (auf dem Sie nicht die KDE- oder GNOMEStandardmechanismen nutzen können). Gehen Sie zur Konfiguration der Autostart-Funktionen wie folgt vor: 1 Melden Sie sich als „root“ am Server-Rechner an. 2 Öffnen Sie die Konfigurationsdatei des Servers, /etc/nxserver/node .conf, und ändern Sie den Wert der Variablen NODE_AUTOSTART, indem Sie myprogram durch den Namen des Programms ersetzen, das bei Start oder Wiederaufnahme einer NX-Sitzung ausgeführt werden soll:
NODE_AUTOSTART=myprogram

3 Speichern und schließen Sie die Konfigurationsdatei. 4 Starten Sie den Server mit dem Befehl nxserver --restart neu und melden Sie sich ab. Das angegebene Programm startet nun bei jedem Start und jeder Wiederaufnahme einer Sitzung. Sie können die Variablen NX_USERIP und NX_SESSIONID auch exportieren, damit sie in der Umgebung des Benutzers im Zugriff sind. Damit ist es beispielsweise möglich, ein Symbol mit dem generischen Inhalt auf den Desktop zu platzieren und auf einen Samba-Server zuzugreifen, der auf dem Thin-Client des Benutzers läuft. Gehen Sie wie folgt vor, um dem Benutzer den Inhalt einer Diskette im Diskettenlaufwerk des Thin-Clients zur Verfügung zu stellen:

318

Referenz

1 Aktivieren Sie den Export der Variablen NX_USERIP und NX_SESSIONID auf der Serverseite: a Melden Sie sich als „root“ am Server an. b Öffnen Sie die Konfigurationsdatei des Servers, /etc/nxserver/node .conf, und setzen Sie die folgenden Variablen:
EXPORT_USERIP="1" EXPORT_SESSIONID="1"

c Speichern und schließen Sie die Server-Konfigurationsdatei und starten Sie den Server mit dem Befehl nxserver --restart neu. d Melden Sie sich ab. 2 Öffnen Sie auf der Client-Seite eine Sitzung, exportieren Sie das Diskettenlaufwerk über SMB und legen Sie ein Symbol auf dem Desktop an: a Exportieren Sie den Inhalt Ihres Diskettenlaufwerks mithilfe Ihres Dateimanagers (Nautilus oder Konqueror) über Samba. b Erstellen Sie die Datei floppy.desktop im Verzeichnis Desktop und geben Sie die folgende Zeile ein:
Exec=smb://$NX_USERIP/floppy

Der Server exportiert die IP-Adresse des Thin-Clients und ermöglicht Ihnen, in der NX-Sitzung über das Diskettensymbol auf das Diskettenlaufwerk des Thin-Clients zuzugreifen.

15.2.6 Erstellen einer NX-Serverkette
Mithilfe einer Kette von NX-Servern können Sie Firewalls überqueren und IP-Masquerading durchführen. Ein externer „Gateway“-Server kann verwendet werden, um eingehende Verbindungen an einen internen Server weiterzuleiten, der hinter einer (maskierten) Firewall verborgen ist. Gehen Sie wie folgt vor, um eine NX-Serverkette zu konfigurieren:

FreeNX: Fernsteuerung eines anderen Computers

319

1 Konfigurieren Sie den internen Server wie in Abschnitt 15.2.1, „Konfigurieren von SSH-Authentifizierung mit Client-Schlüsseln“ (S. 314) beschrieben und verteilen Sie den privaten Schlüssel des Servers (client.id_dsa.key) an /usr/NX/share/ auf dem Gateway. 2 Gehen Sie am Gateway-Server wie folgt vor: a Melden Sie sich als „root“ an. b Setzen Sie die folgenden Variablen in /etc/nxserver/node.conf und ersetzen Sie myinternalhost durch die IP-Adresse des internen NX-Servers:
ENABLE_SERVER_FORWARD="1" SERVER_FORWARD_HOST="myinternalhost" SERVER_FORWARD_KEY="/usr/NX/share/client.id_dsa.key"

c Starten Sie den externen Server mit dem Befehl nxserver --restart neu, um die geänderte Konfiguration zuzuweisen, und melden Sie sich ab. Jede eingehende Verbindung wird an den internen Server weitergeleitet.

15.2.7 Installieren und Ausführen von FreeNX und NoMachine auf demselben Server
Sie können FreeNX und den kommerziellen NoMachine NX-Server ohne Konflikte auf demselben Rechner ausführen. Die Implementierung erfolgt in FreeNX durch Weiterleiten der Verbindung an NoMachine, das auf demselben Rechner installiert ist. Gehen Sie zur Aktivierung dieser Funktion wie folgt vor: 1 Melden Sie sich als „root“ am Server-Rechner an. 2 Öffnen Sie die Konfigurationsdatei des Servers für FreeNX unter /etc/ nxserver/node.conf und setzen Sie die folgende Variable:
ENABLE_NOMACHINE_FORWARD="1"

320

Referenz

3 Speichern Sie diese Datei und starten Sie den FreeNX-Server mit dem Befehl nserver --restart neu. 4 Melden Sie sich ab. Verwenden Sie für die Verbindung zum NoMachine-Server die Standarddaten für Benutzername und Passwort. Stellen Sie für eine Verbindung zum FreeNX-Server dem normalen Benutzernamen die Angabe freenx. voran (zum Beispiel: freenx.joedoe) und verwenden Sie das normale Passwort.

15.3 Fehlerbehebung
Die folgenden Abschnitte führen die häufigsten Probleme auf, die beim Einsatz von FreeNX auftreten können, und bieten entsprechende Lösungsmöglichkeiten.

15.3.1 knx bleibt beim Versuch eines Verbindungsaufbaus hängen
Sie versuchen, mit knx eine Verbindung zu Ihrem NX-Server aufzubauen. Beim Initiieren der Verbindung kann knx den Benutzer nicht authentifizieren und es wird nie eine entfernte Sitzung gestartet. Gehen Sie wie folgt vor, um die Ursache dafür festzustellen und eine Lösung des Problems zu finden: 1 Prüfen Sie, ob Novell AppArmor auf dem Server-Rechner läuft, und verfahren Sie wie in Abschnitt 15.3.2, „Verbindung zum NX-Server kann nicht aufgebaut werden“ (S. 322) beschrieben. 2 Versuchen Sie erneut, eine Verbindung zwischen knx und dem Server aufzubauen. 3 Prüfen Sie, ob die Firewall auf der Client-Seite SSH-Datenverkehr gestattet, indem Sie das YaST Firewall-Modul starten und prüfen, ob SSH unter Erlaubte Dienste für die Externe Zone aufgelistet ist. Aktivieren Sie SSH, wenn es noch nicht aktiviert ist.

FreeNX: Fernsteuerung eines anderen Computers

321

wenn sie zuvor geschlossen wurden. 7 Versuchen Sie erneut.3. 6 Melden Sie sich als „root“ am Server an und gehen Sie wie folgt vor: a Wechseln Sie in das Verzeichnis /tmp und prüfen Sie.) Gehen Sie wie folgt vor. 311) aufgeführt sind. 15. Connection timed out. eine Verbindung zum Server aufzubauen.nX* b Wenn welche von diesen alten Sperrdateien vorhanden sind. eine Verbindung zwischen knx und dem Server aufzubauen. 322 Referenz . 5 Versuchen Sie erneut. Zeitüberschreitung der Verbindung.2 Verbindung zum NX-Server kann nicht aufgebaut werden Nach dem Start von knx und Initiieren der Verbindung erhalten Sie folgende Fehlermeldung: Connection to NX server could not be established. Öffnen Sie diese Ports. Sie sollten nun in der Lage sein. „Erste Schritte in NX“ (S.1. die in Abschnitt 15.4 Prüfen Sie die Firewall auf der Server-Seite nach SSH und die NX-Ports. ob Sperrdateien von NX-Server vorhanden sind: cd / ls -ltr . um die Ursache dieses Problems zu ermitteln: 1 Melden Sie sich am Server als „root“ an. vorausgesetzt Sie haben alle obigen Anweisungen befolgt. entfernen Sie sie. eine Verbindung zwischen knx und dem Server aufzubauen. c Melden Sie sich ab. 8 Löschen und installieren Sie den knx-Client auf dem Client-Rechner neu mithilfe des YaST-Moduls „Software installieren oder löschen“. (Verbindung zu NX-Server war nicht möglich.

das auf dem Server läuft. das mit einer neuen Sitzung geöffnet wird. die beim Verhandeln der NX-Fernsitzung verwendet wurden.2 Prüfen Sie die Ausgabe des Befehls dmesg auf einen Eintrag wie den folgenden: SubDomain: REJECTING r access to /var/lib/nxserver/home/. gehen Sie vor wie in Abschnitt 15. Aktuelle Sitzung beenden?) Die Verbindung ist fehlgeschlagen. Oder: Bringen Sie das sshd-Profil in den Lernmodus und fügen Sie Berechtigungen für den Zugriff auf NX-Dateien in das bestehende Profil ein. Um die Firewall-Einstellungen am Server anzupassen. aber anstelle eines Terminalfensters.1.3 Benutzerauthentifizierung erfolgreich.ssh/authorized_keys2 (sshd(31247) profile /usr/sbin/sshd active /usr/sbin/sshd) Dieser Eintrag teilt Ihnen mit. weil die höheren Ports. 311) beschrieben. kann knx den Benutzer authentifizieren. 15. erhalten Sie eine Fehlermeldung wie die folgende: Could not yet establish the connection to the remote proxy. dem ssh-Daemon den Zugriff auf einige NX-spezifische Dateien nicht gestattet. 3 Stoppen Sie AppArmor auf dem Server-Rechner. Do you want to terminate the current session? (Verbindung zu Remote-Proxy noch nicht möglich. Eine ausführlichere Beschreibung erhalten Sie im Novell AppArmor 2. Fernverbindung nicht aufgebaut Nachdem Sie knx ausgeführt und die Sitzung initiiert haben. dass Novell AppArmor. 4 Bauen Sie wieder eine Verbindung zum Server auf. FreeNX: Fernsteuerung eines anderen Computers 323 . nicht an der Firewall des Servers geöffnet sind.3. „Erste Schritte in NX“ (S.0 Administrationshandbuch.

15. 324 Referenz .SUSE.4 Weitere Informationen Neueste Informationen über das aktuelle FreeNX-Paket finden Sie in der READMEDatei unter /usr/share/doc/packages/FreeNX/README. Weitere Informationen über NX-Server erhalten Sie über den Befehl nxserver --help.

conf. die ein PAM-Modul verwendet.conf und time.d/programmname. pam_pwcheck. ein geeigneterf PAM-Modus für die Verwendung durch das betreffende Programm anzupassen oder zu schreiben. Mit diesen Dateien werden die für die Authentifizierung verwendeten PAM-Module definiert. wie LDAP oder SAMBA. genügt es. pam_unix2 . Jedes Programm. sodass sie von jeder beliebigen Anwendung angefordert werden können. ist eine Trennung zwischen den Anwendungen und dem Authentifizierungsmechanismus und das Delegieren der Authentifizierung an zentral verwaltete Module. diese Nachteile zu vermeiden.conf.Authentifizierung mit PAM 16 Während des Authentifizierungsprozesses verwendet Linux PAM (Pluggable Authentication Modules. mit denen dann die Informationen in den verschiedenen Authentifizierung mit PAM 325 . PAM-Module sind systemweit verfügbar.conf). das mit dem PAM-Mechanismus arbeitet. einfügbare Authentifizierungsmodule) als Schicht für die Vermittlung zwischen Benutzer und Anwendung. ruft eine Reihe von PAM-Funktionen auf. Wenn ein neues Authentifizierungsschema erforderlich ist. Darüber hinaus sind im Verzeichnis /etc/security globale Konfigurationsdateien für die meisten PAM-Module gespeichert. Häufig möchten Systemadministratoren und Programmierer den Zugriff auf bestimmte Teile des Systems einschränken oder die Nutzung bestimmter Funktionen einer Anwendung begrenzen. Dieser Prozess ist jedoch sehr zeitaufwändig und fehleranfällig. In diesem Kapitel wird beschrieben. Eine Möglichkeit. Jede Anwendung. angepasst werden. in denen die genaue Verhaltensweise der Module definiert ist (Beispiele: pam_env. verfügt über eine eigene Konfigurationsdatei im Verzeichnis /etc/pam. Ohne PAM müssen die Anwendungen bei jedem neu eingeführten Authentifizierungsmechanismus. wie der modulare Authentifizierungsmechanismus funktioniert und wie er konfiguriert wird.

session Mit diesem Modultyp werden Benutzersitzungen verwaltet und konfiguriert.1 Struktur einer PAM-Konfigurationsdatei Jede Zeile in einer PAM-Konfigurationsdatei enthält maximal vier Spalten: <Modultyp> <Steuerflag> <Modulpfad> <Optionen> PAM-Module werden als Stapel verarbeitet. So wird beispielsweise mit einem Modul das Passwort und mit einem anderen Modul der Standort überprüft. ob der Benutzer allgemein zur Verwendung des angeforderten Diensts berechtigt ist. Sie werden vor und nach der Authentifizierung gestartet. 326 Referenz . Solch eine Prüfung sollte beispielsweise durchgeführt werden. dass keine Anmeldung mit einem Benutzernamen eines nicht mehr gültigen Kontos erfolgen kann. Home-Verzeichnis.Konfigurationsdateien verarbeitet und das Ergebnis an die anfordernde Anwendung zurückgegeben wird. um Anmeldeversuche in Systemprotokollen aufzuzeichnen und die spezielle Umgebung des Benutzers (wie Mailkonten. In den meisten Fällen handelt es sich hierbei um ein Passwort. Dies erfolgt in der Regel über die Abfrage des Passworts. es kann jedoch auch mithilfe einer Chipkarte oder biometrischer Daten (Fingerabdruck oder Scannen der Iris) erreicht werden. Mit einem dritten Modul können beispielsweise benutzerspezifische Einstellungen abgelesen werden. von dem aus auf das System zugegriffen wird. Die unterschiedlichen Modultypen dienen verschiedenen Zwecken. account Mit Modulen dieses Typs wird überprüft. Systemgrenzen usw. password Mit diesem Modultyp kann die Änderung eines Authentifizierungs-Token aktiviert werden.) zu konfigurieren. PAM sind ungefähr vier verschiedene Modultypen bekannt: auth Dieser Modultyp dient der Überprüfung der Authentizität des Benutzers. 16. um sicherzustellen.

erhält der Benutzer sofort eine entsprechende Rückmeldung und es werden keine weiteren Module verarbeitet. Falls jedoch ein Modul mit dieser Flag ausfällt. ohne weitere Aktionen auszuführen. vorausgesetzt. sufficient Wenn ein Modul mit dieser Flag erfolgreich verarbeitet wurde. ob bestimmte Bedingungen erfüllt sind. Wenn ein Modul mit der Flag required ausfällt. werden alle anderen Module mit derselben Flag verarbeitet. bevor der Benutzer eine Meldung bezüglich des Fehlers beim Authentifizierungsversuch erhält. es ist zuvor kein Fehler bei einem Modul mit der Flag required aufgetreten. Der Modulpfad muss nicht explizit angegeben werden. solange das Modul sich im Standardverzeichnis /lib/security befindet (für alle von SUSE Linux unterstützten Authentifizierung mit PAM 327 . Ein Fehler eines Moduls mit der Flag sufficient hat keine direkten Auswirkungen auf die Verarbeitung oder die Verarbeitungsreihenfolge nachfolgender Module. Dies kann für Module sinnvoll sein. erhält die anfordernde Anwendung sofort eine Nachricht bezüglich des erfolgreichen Vorgangs und keine weiteren Module werden verarbeitet. ähnlich wie Module mit der Flag required. optional Ein Fehler oder die erfolgreiche Verarbeitung hat bei diesem Modul keine direkten Folgen. include Wenn diese Flag festgelegt ist. wird die als Argument angegebene Datei an dieser Stelle eingefügt. Bei einem erfolgreichen Vorgang werden die anderen Module nachfolgend verarbeitet genau wie alle Module mit der Flag required. dass er eine E-Mail erhalten hat) dienen. requisite Module mit dieser Flag müssen ebenfalls erfolgreich verarbeitet werden. um zu überprüfen. damit die Authentifizierung fortgesetzt werden kann. die nur der Anzeige einer Meldung (beispielsweise um dem Benutzer mitzuteilen. mit denen das Verhalten der gestarteten Module beeinflusst wird: required Ein Modul mit dieser Flag muss erfolgreich verarbeitet werden. Die Flag requisite kann als Basisfilter verwendet werden. die für die richtige Authentifizierung erforderlich sind.Die zweite Spalte enthält Steuerflags.

die auf die Konfigurationsdateien von vier Modultypen verweisen: common-auth. 328 Referenz . wenn der Administrator die Standardeinstellungen ändert. In diesen vier Dateien ist die Standardkonfiguration für die einzelnen Modultypen gespeichert.SuSE) #session optional pam_resmgr.so fake_ttyname Die typische PAM-Konfiguration einer Anwendung (in diesem Fall sshd) enthält vier include-Anweisungen.2 PAM-Konfiguration von sshd Betrachten Sie zum Verständnis der Theorie. die PAM-Konfiguration von sshd als praktisches Beispiel: Beispiel 16.2. Wenn Sie diese Dateien aufnehmen.so account include common-account password include common-password session include common-session # Enable the following line to get resmgr support for # ssh sessions (see /usr/share/doc/packages/resmgr/README. Jetzt wird die PAM-Konfiguration mithilfe von zentralen Konfigurationsdateien ausgeführt und alle Änderungen werden automatisch über die PAM-Konfiguration der einzelnen Dienste weitergegeben. common-password und common-session.0 auth include common-auth auth required pam_nologin. auf der PAM basiert. common-account. anstatt jedes Modul für die einzelnen PAM-Awendungen separat aufzurufen. Die vierte Spalte kann eine Option für das angegebene Modul enthalten. wenn Änderungen an PAM vorgenommen oder neue Anwendungen installiert wurden. wie beispielsweise debug (zum Aktivieren der Fehlersuche) oder nullok (um die Verwendung leerer Passwörter zu ermöglichen). 329). Siehe Beispiel 16. „Standardkonfiguration für den Abschnitt auth“ (S.64-Bit-Plattformen lautet das Verzeichnis /lib64/security). 16.1 PAM-Konfiguration für sshd #%PAM-1. Vorher mussten alle Konfigurationsdateien für alle Anwendungen manuell angepasst werden. Mit der ersten include-Datei (common-auth) werden zwei Module vom Typ auth aufgerufen: pam_env und pam_unix2. erhalten Sie automatisch eine aktualisierte PAM-Konfiguration.

Wenn die in common-auth angegebenen Dateien erfolgreich aufgerufen wurden. erhält sshd eine Meldung mit dem Hinweis auf diesen erfolgreichen Vorgang und der nächste Modulstapel (password) wird verarbeitet.4. in diesem Fall die in Beispiel 16.2 Standardkonfiguration für den Abschnitt auth auth auth required required pam_env. 329). bevor sshd eine Rückmeldung darüber erhält.3.so pam_make. werden der Anmeldename und das Passwort des Benutzers mit /etc/passwd und /etc/shadow abgeglichen. Falls bei einem der Module ein Fehler auftritt. Beispiel 16. dass der Benutzer vorhanden ist. bevor sshd eine Meldung bezüglich des positiven Ergebnisses erhält. da dem Modul pam_env der Standort bekannt ist. ob der Anmeldevorgang erfolgreich war.Beispiel 16. Hiermit kann die Variable DISPLAY auf den richtigen Wert gesetzt werden.so Mit dem ersten Modul. um die in dieser Datei angegebenen Variablen festzulegen. Nachdem alle Module vom Typ auth erfolgreich verarbeitet wurden. Ist dies der Fall. ob die Datei /etc/nologin vorhanden ist. wird eine weitere include-Anweisung verarbeitet. wird die Datei /etc/security/pam_env. „Standardkonfiguration für den Abschnitt account“ (S.4 Standardkonfiguration für den Abschnitt password password required password required #password required pam_pwcheck. pam_env. darf sich kein anderer Benutzer außer root anmelden.so pam_unix2. pam_unix2.3 Standardkonfiguration für den Abschnitt account account required pam_unix2. 329) dargestellt. Wenn pam_unix2 als Ergebnis zurückgibt. wie in Beispiel 16. müssen sie alle erfolgreich verarbeitet werden. Die Datei common-account enthält lediglich ein Modul.conf geladen.so pam_unix2. an dem der Anmeldevorgang stattfindet.so Beispiel 16. wird mit dem dritten Modul pam_nologin überprüft. Der gesamte Stapel der auth-Module wird verarbeitet. „Standardkonfiguration für den Abschnitt password“ (S. wird der vollständige Modulstapel verarbeitet und erst dann wird sshd bezüglich des negativen Ergebnisses benachrichtigt. Wenn alle Module des Stapels die Flag required aufweisen. die auf die Standardkonfiguration für passwordModule in der Datei Authentifizierung mit PAM 329 . Mit dem zweiten Modul.so nullok nullok use_first_pass use_authtok /var/yp Auch hier beinhaltet die PAM-Konfiguration von sshd nur eine include-Anweisung. pam_unix2.

Die Module vom Typ password sollten immer dann verwendet werden.5 Standardkonfiguration für den Abschnitt session session required session required pam_limits.conf.3 Konfiguration von PAM-Modulen Einige PAM-Module können konfiguriert werden. Dadurch ist es zudem unmöglich. pam_pwcheck. Mit dem Modul pam_limits wird die Datei /etc/security/limits. pam _env. In diesem Abschnitt werden die für das sshd-Beispiel relevanten Konfigurationsdateien. hat jedoch aufgrund der Option none. keine praktischen Konsequenzen. Für die Änderung eines Passworts oder eines anderen Authentifizierungs-Token ist eine Sicherheitsprüfung erforderlich. Dies erfolgt über das Modul pam_pwcheck.conf.conf angegeben ist. die in der entsprechenden Konfigurationsdatei des Moduls pam_unix2.common-password verweist. 16. Das anschließend verwendete Modul pam_unix2 überträgt alle alten und neuen Paswörter von pam_pwcheck. wenn die Anwendung die Änderung eines Authentifizierungs-Token anfordert. pam_unix2 wird zwar erneut verarbeitet. wenn die vorherigen Module vom Typ account oder auth so konfiguriert sind. Beispiel 16. um die Sitzung gemäß den Einstellungen für den betreffenden Benutzer zu konfigurieren. die von pam _pwcheck durchgeführten Prüfungen zu umgehen. dass bei einem abgelaufenen Passwort eine Fehlermeldung angezeigt wird. Hiermit können die erforderlichen Daten aus /etc/ 330 Referenz . mit der Nutzungseinschränkungen für bestimmte Systemressourcen definiert werden können.conf und limits.conf. Die session-Module werden beim Abmelden des Benutzers ein zweites Mal aufgerufen.so Im letzten Schritt werden die in der Datei common-session gespeicherten Module vom Typ session aufgerufen. 16.conf geladen.3. sodass der Benutzer die Authentifizierung nicht erneut ausführen muss. Die entsprechenden Konfigurationsdateien sind im Verzeichnis /etc/security gespeichert.1 pam_unix2.so pam_unix2. pam_unix2. kurz beschrieben.conf Die herkömmliche passwortbasierte Authentifizierungsmethode wird durch das PAMModul pam_unix2 gesteuert. Diese Module müssen erfolgreich abgeschlossen werden (Steuerflag required).

331) dargestellt. 16.conf auth: nullok account: password: session: nullok none Mit der Option nullok für die Modultypen auth und password wird angegeben.conf Diese Datei kann verwendet werden.6. „pam_unix2. Das Verhalten des Moduls kann durch die Konfiguration der PAM-Optionen der einzelnen Anwendung selbst oder global durch Bearbeiten der Datei /etc/security/pam_unix2.2 pam_env. Beispiel 16. Hiermit legen Sie Umgebungsvariablen mit folgender Syntax fest: VARIABLE [DEFAULT=[value]] [OVERRIDE=[value]] VARIABLE Name der festzulegenden Umgebungsvariablen. NIS-Zuordnungen. Authentifizierung mit PAM 331 . /etc/shadow. die von pam_env abgefragt und festgelegt werden können und die den Standardwert außer Kraft setzen.3. [DEFAULT=[value]] Der Standardwert. [OVERRIDE=[value]] Werte.6 pam_unix2.conf beeinflusst werden. Eine ganz grundlegende Konfigurationsdatei für das Modul wird in Beispiel 16.passwd. Die Benutzer sind zudem berechtigt. dass für dieses Modul keine Meldungen protokolliert werden sollen (dies ist die Standardeinstellung). NIS+-Tabellen oder aus einer LDAPDatenbank gelesen werden. den der Administrator festlegen möchte. dass leere Passwörter für den entsprechenden Kontotyp zulässig sind.conf“ (S. Die Option none für den Modultyp session gibt an. um eine standardisierte Umgebung für Benutzer zu definieren. die Passwörter für ihre Konten zu ändern. die beim Aufrufen des pam_env-Moduls festgelegt wird. Informationen zu zusätzlichen Konfigurationsoptionen erhalten Sie in den Kommentaren in der Datei selbst und auf der Handbuchseite pam_unix2(8).

7 pam_env. leere Passwörter und die Änderung von Passwörtern zuzulassen. die vom Modul pam_limits gelesen wird. die vorübergehend überschritten werden können. 16. 332) dargestellt.oder Gruppenbasis in der Datei limits.0 OVERRIDE=${DISPLAY} In der ersten Zeile wird der Wert der Variable REMOTEHOST auf localhost gesetzt.conf festgelegt werden. 332) erhält pam_pwcheck die Anweisung. Informationen zur Syntax und zu den verfügbaren Optionen erhalten Sie in den in der Datei enthaltenen Kommentaren. 332 Referenz .conf password: nullok 16.3. die immer dann geändert wird.conf beschrieben. wenn mit pam_env kein anderer Wert bestimmt werden kann.8 pam_pwcheck. die niemals überschritten werden dürfen. verwendet die Anwendung die globalen Einstellungen. Beispiel 16.conf. Die in dieser Datei gespeicherten Einstellungen haben Vorrang vor den PAM-Einstellungen der einzelnen Anwendungen.Ein typisches Beispiel für eine Verwendungsmöglichkeit von pam_env ist die Anpassung der Variable DISPLAY. Über Beispiel 16.conf Diese Konfigurationsdatei ist für das Modul pam_pwcheck bestimmt.conf“ (S. der immer dann verwendet wird. Die Variable DISPLAY hingegen enthält den Wert REMOTEHOST.conf Systemgrenzen können auf Benutzer.3. Weitere Optionen für das Modul werden der Datei /etc/ security/pam_pwcheck. Beispiel 16. Weitere Informationen hierzu finden Sie in den Kommentaren der Datei /etc/ security/pam_env.4 limits.8.conf REMOTEHOST DISPLAY DEFAULT=localhost OVERRIDE=@{PAM_RHOST} DEFAULT=${REMOTEHOST}:0.conf“ (S. Dies ist in Beispiel 16.7. und Softgrenzen festlegen. „pam_pwcheck. wenn eine entfernte Anmeldung stattfindet.3 pam_pwcheck. „pam_env. Wenn keine anwendungsspezifischen Einstellungen definiert wurden. In der Datei können Sie Festgrenzen. das daraus Optionen für alle Module vom Typ password abliest.

suse. Thorsten Kukuk hat mehrere PAM-Module für SUSE Linux entwickelt. Hier erhalten Sie Informationen zum Programmieren standardkompatibler PAMModule. Linux-PAM-Handbuch für Systemadministratoren Dieses Dokument enthält alle Informationen zu PAM. Das Dokument ist als PDFDatei. Im Unterverzeichnis modules sind README-Dateien zu den verfügbaren PAM-Modulen gespeichert. die ein Anwendungsentwickler benötigt. Authentifizierung mit PAM 333 .4 Weitere Informationen Im Verzeichnis /usr/share/doc/packages/pam des installierten Systems finden Sie folgende zusätzliche Dokumentation: READMEs Auf der obersten Ebene dieses Verzeichnisses finden Sie einige allgemeine README-Dateien.de/~kukuk/pam/ einige Informationen zur Verfügung gestellt. im HTML-Format oder im reinen Textformat verfügbar. die ein Systemadministrator benötigt. Es ist als PDF-Datei. Hier werden mehrere Themen von der Syntax der Konfigurationsdateien bis hin zu Sicherheitsaspekten von PAM behandelt. Linux-PAM-Handbuch für Anwendungsentwickler Dieses Dokument enthält alle Informationen. im HTML-Format oder im reinen Textformat verfügbar. Er hat unter http://www. im HTML-Format oder im reinen Textformat verfügbar. Linux-PAM-Handbuch für Modulprogrammierer In diesem Dokument wird das Thema aus der Sicht der Entwickler zusammengefasst. Es ist als PDF-Datei.16. der die PAM-Bibliotheken verwenden möchte.

.

Hierbei handelt es sich um ein Verfahren. Um dies zu erzielen. Daher werden Host.und Gastbetriebssystem auf Kernel-Ebene angepasst. Xen geht daher einen anderen Weg. Diese Anzahl ist jedoch stark von den Systemanforderungen der laufenden Gastsysteme abhängig.und Netzwerkgeräte. Virtualisierung mit Xen 335 . Anwendungen auf Benutzerebene bleiben unverändert. Es beschränkt die Emulierung auf so wenige Elemente wie möglich.und Netzwerkgeräte verfügbar sind. ein Gastsystem im laufenden Betrieb von einem physischen Computer auf einen anderen zu migrieren. Sie erhalten eine Einführung in die Thematik sowie Informationen zum Installieren. Der Nachteil dabei ist. Die Hardware für die einzelnen Systeme wird virtuell bereitgestellt.Virtualisierung mit Xen 17 Mit Xen ist es möglich. mehrere Linux-Systeme auf einem einzigen Computer auszuführen. ist es sogar möglich. um das System auszuführen und um Verbindungen zu anderen Gastsystemen oder dem lokalen Netzwerk herzustellen.und Netzwerkgeräte bereit. die für das jeweilige System erforderlich ist. insbesondere von der Arbeitspeicherauslastung. Xen steuert die Hardware mithilfe eines Hypervisors und eines steuernden Gastsystems. Ursprünglich wurde Xen entwickelt. Wenn mehrere physische Computer. aber nicht identisch präsentiert. Die Gastsysteme nutzen diese virtuellen Block. dass die virtuellen Block. das auch als Domain-0 bezeichnet wird. In diesem Kapitel finden Sie einen Überblick über die Möglichkeiten und die Grenzen dieser Technologie. auf denen Xen ausgeführt wird. das virtuelle Computer der zu Grunde liegenden Hardware gegenüber ähnlich. arbeitet Xen mit Paravirtualisierung. um bis zu 100 Gastsysteme auf einem einzelnen Computer auszuführen. Virtuelle Computer müssen in der Regel die Hardware emulieren. dass die emulierte Hardware viel langsamer als echte Hardware ist. Diese stellen alle erforderlichen virtuellen Block. so konfiguriert werden. Konfigurieren und Ausführen von Xen.

beispielsweise von Nvidia oder ATI. Der Ablaufplaner kann auch geändert werden. ein Block-Gerät lediglich zu booten. funktionieren nicht erwartungsgemäß. weshalb maximal 4 GB Arbeitsspeicher unterstützt werden. die Open-Source-Treiber verwenden. Auf einer höheren Ebene kann die Nutzung der verfügbaren Prozessorleistung auch durch Migrieren eines Gastsystems optimiert werden. Auch diverse WLAN-Chips und CardbusBridges werden von Xen nicht unterstützt. Netzwerk. Blockgeräte) 336 Referenz . Konsole virt. auch wenn diese ggf. Die Version 2 von Xen bietet keine Unterstützung für PAE (Physical Address Extension). ACPI wird nicht unterstützt. während das Gastsystem ausgeführt wird.1 Überblick über Xen Anwendung zur Verwaltung Management Host OS Userspace Anwendung Service Guest OS Userspace Anwendung Service Guest OS Userspace Anwendung Linux-Kernel (Paravirtualisiert) Linux-Kernel (Paravirtualisiert) NetWare-Kernel (Paravirtualisiert) Physische Gerätetreiber EA Xen virt. Netzwerk virt. Blockgerät EA CPU Speicher - Physische Hardware (CPU.Um die Prozessorlast so gering wie möglich zu halten. die von ACPI abhängig sind. Eine weitere Einschränkung von Xen ist. in Domain-0 über den richtigen Kernel und die richtige initrd zu verfügen. wodurch sich die Priorität des laufenden Gastsystems ändern lässt. funktionieren nicht. Zum Booten ist es grundsätzlich erforderlich. CPU virt. Speicher virt. soweit verfügbar. Abbildung 17. In diesen Fällen müssen Sie. Verschiedene proprietäre Treiber. Speicher. bietet der Xen-Hypervisor drei unterschiedlicher Ablaufplaner. Die Energieverwaltung und andere Modi. Das XEN-Virtualisierungssystem hat jedoch auch einige negative Auswirkungen hinsichtlich der unterstützten Hardware. nicht die volle Chip-Funktionalität unterstützen. dass es zurzeit nicht möglich ist.

um ein Dateisystem-Image oder eine reale physische Partition zu erstellen. bridge-utils.1 Installation von Xen Die Installation von Xen umfasst die Einrichtung einer Domain-0-Domäne und die Installation von Xen-Gästen. Booten Sie anschließend im Xen-Modus neu.2 Domäneninstallation Jede Gastdomäne muss einzeln installiert werden. Wenn Sie Xen bei der Installation auswählen.17. 17. dass alle erforderlichen Pakete installiert sind. die normalerweise zum Booten eines LinuxKernel verwendet werden.0)/boot/vmlinuz-xen <parameters> module (hd0. Die Dateisystem-Images werden im Verzeichnis /var/ Virtualisierung mit Xen 337 . Geben Sie in der folgenden Schnittstelle alle Informationen an. Bei diesen handelt es sich um python. Ersetzen Sie <parameters> durch die Parameter. auf der sich Ihr /boot-Verzeichnis befindet. In anderen Fällen machen Sie einen Eintrag in boot/grub/menu. Dadurch wird der Xen-Hypervisor und ein geringfügig geänderter Linux-Kernel als Domain-0 gebootet. die für die Ausführung des Installationsprogramms benötigt werden.lst. Diese Informationen sind in vier Kategorien unterteilt: Optionen Legen Sie hier den Namen der Gastdomäne. Festplatten Wählen Sie diese Option. wird Xen zur GRUB-Konfiguration hinzugefügt. xen-tools-ioemu und ein kernel-xen-Paket. Weitere Informationen hierzu finden Sie in Kapitel 9.gz module (hd0. ihre Speicherressource sowie Bootoptionen für das Installationsprogramm fest. Abgesehen von den bereits erwähnten Ausnahmen sollte alles wie gewohnt funktionieren. Führen Sie zu diesem Zweck die Installation der Virtual Machine (XEN) des YaST-Moduls in der Softwaregruppe aus. xen-tools.0) durch die Partition. Dieser Eintrag sollte in etwa folgendermaßen aussehen: title Xen3 kernel (hd0. Stellen Sie zunächst sicher.0)/boot/initrd-xen Ersetzen Sie (hd0. der den größten Teil der Hardware steuert. 211).0)/boot/xen. xen. Der Bootloader (S.

überprüfen Sie zunächst die ID des erforderlichen Gastsystems mit dem Befehl xm list und stellen Sie anschließend mit dem Befehl xm console ID eine Verbindung zu dieser ID her. die Verbindung zu einer Konsole zu trennen bzw. ↑Start) identisch. Das nächste Dialogfeld startet das Installationssystem. Sie können den verfügbaren Speicher von Domain-0 stets mit dem Befehl free überprüfen. nachdem verschiedene Einrichtungsaufgaben durchgeführt wurden. Dieses System wird in der Installationsquelle für das YaST-Modul ausgewählt und kann nicht in diesem Workflow festgelegt werden. wird die Gastdomäne nicht gestartet. Dieses System ist mit einer Standardinstallation im Textmodus gemäß der Beschreibung in Abschnitt „YaST im Textmodus“ (Kapitel 2. müssen Sie das direkt in der Konfigurationsdatei tun. Netzwerk Von diesem Modul werden nur Bridge-Netzwerke unterstützt. Falls nicht genügend Speicher verfügbar ist. Fügen Sie die Anzahl der benötigten virtuellen Netzwerkkarten hinzu. Zum Trennen der Verbindung dient der Befehl Strg + ] . das zum Installieren der Gastdomäne verwendet werden soll. Stellen Sie sicher. Betriebssystem Das Betriebssystem. Es ist jederzeit möglich. dass Sie über genügend Festplattenspeicher in diesem Verzeichnis verfügen. 17.3 Starten und Steuern von Xen-Domänen mit xm Xen reduziert den Speicherplatz in Domain-0 automatisch. Falls Sie die Konfiguration einer Gastdomäne ändern müssen. Wenn Sie eine neue Verbindung herstellen möchten. damit die Anforderungen der neu gestarteten Gastdomäne erfüllt werden. 338 Referenz . Die Datei befindet sich in /etc/xen und hat einen Namen. der mit dem Namen der Gastdomäne übereinstimmt. die Konsole neu mit einem anderen Terminal zu verbinden.lib/xen/images gespeichert. Systemkonfiguration mit YaST.

Mit diesem Befehl geben Sie eine Liste aller laufenden Domänen mit ihren jeweiligen IDs sowie Arbeitsspeicherund CPU-Zeit-Werten aus. die Lösung einiger Probleme zu finden. Virtualisierung mit Xen 339 . die für das xm-Werkzeug verfügbar sind.1 xm help xm-Befehle Hiermit rufen Sie eine Liste der Befehle auf. Tabelle 17. In Tabelle 17. Mit diesem Befehl stellen Sie eine Verbindung zur ersten Konsole (tty1) des Gastsystems mit der ID ID her. 339) finden Sie einige der wichtigsten Befehle. Dieser Befehl beendet das Gastsystem mit der ID ID sofort. xm console ID xm mem-set ID Mem xm create domname [-c] xm shutdown ID xm destroy ID xm list xm info 17. Der optionale Parameter -c verbindet das aktuelle Terminal mit der ersten tty des neuen Gastsystems.1. Hiermit zeigen Sie Informationen zum Xen-Host einschließlich CPU. sondern helfen Ihnen.4 Fehlerbehebung Dieser Abschnitt enthält einige Hinweise zum Lösen häufiger Probleme. Mit dem Befehl xm help können Sie eine Liste mit einer kurzen Erläuterung aufrufen.Das xm-Werkzeug von Xen lässt sich mit zahlreichen Parametern verwenden. „xm-Befehle“ (S. Hiermit fahren Sie das Gastsystem mit der ID ID normal herunter. Dieser Befehl startet die Domäne mit der Konfigurationsdatei domname.und Arbeitsspeicherinformationen an. Hiermit legen Sie die Arbeitsspeichermenge für die Domäne mit der ID ID auf den Wert Mem in MB fest. Diese Hinweise dienen nicht als vollständige schrittweise Anweisungen.

Fahren Sie Ihr Gastsystem herunter und führen Sie fsck für das Image aus.8n1 Bevor Sie Xen booten. DHCP erfordert.d/xend restart aus. Leider können die Initialisierungsskripts des Systems die aktuelle Konfiguration nicht behandeln. dass das Dateisystem eingehängt ist.html – Offizielle Informationen für Xen-Benutzer. 340 Referenz . dass mehrere iptables-Kernel-Module ausgeführt werden. Beim Booten des Hypervisors tritt ein Problem auf und die Meldungen werden zu schnell ausgeblendet Schließen Sie Ihren Xen-Computer an eine andere Arbeitsstation mit einem seriellen Nullmodem-Kabel an. starten Sie ein Terminalprogramm auf Ihrer Arbeitsstation. um das Netzwerk neu zu starten. überprüfen Sie dies mithilfe des Befehls mount. führen Sie sie manuell über Domain-0 aus.5 Weitere Informationen Weitere Informationen zu Xen finden Sie auf den folgenden Websites: • /usr/share/doc/packages/xen/user/html/index. solange es nicht eingehängt ist. 17. Falls die Überprüfung des Dateisystems nicht automatisch erfolgt. DHCP kann keine IP-Adresen abrufen. Domain-0 ist nicht mehr direkt an die Bridge angeschlossen. Führen Sie /etc/init. um eine Blockade der Bridge zu vermeiden. Ich muss das Dateisystem überprüfen. Hierfür ist das Paket xen-doc-html erforderlich. Beispiel: screen /dev/ttyS0 115200 Ändern Sie das Gerät und die Geschwindigkeit gemäß Ihren Bedürfnissen.0)/boot/xen.Es gibt Netzwerkprobleme in Xen3. Diese wurden entweder nicht installiert oder Sie haben Ihren Kernel aktualisiert und vergessen. Fügen Sie dann auf der Xen-Seite der Zeile folgenden Parameter hinzu kernel (hd0.gz com1=115200. die Kernel-Module im Gastsystem zu aktualisieren. Wenn fsck meldet. Das Netzwerkkonzept hat sich in Xen3 verglichen mit Xen2 erheblich geändert.

com/ – Diverse Mailing-Listen zu Xen.html – Xen-Webseite mit zahlreichen weiteren Dokumentations-Links. • http://www.xensource. • http://lists. • http://wiki.html – Zusätzliche technische Schnittstellendokumentation.uk/Research/SRG/netos/xen/index .• /usr/share/doc/packages/xen/interface/html/index.cam.com/xenwiki – Xen-Wiki für die Open SourceCommunity.ac.cl. Virtualisierung mit Xen 341 . Auch hierfür ist das Paket xen-doc-html erforderlich.xensource.

.

Dienste .Teil IV.

.

1. RFC ist das Akronym für Request for Comments. das in seiner Gesamtheit auch als „das Internet“ bezeichnet wird. Das üblicherweise von Linux verwendete Protokoll. Über TCP/IP verbundene Netzwerke bilden zusammen ein weltweites Netzwerk. TCP/IP. RFCs sind Dokumente. Hierbei handelt es sich nicht um ein einzelnes Netzwerkprotokoll. „Verschiedene Protokolle aus der TCP/IP-Familie“ (S. sondern um eine Familie von Netzwerkprotokollen.html verfügbar. Linux und andere Unix-Betriebssysteme verwenden das TCP/IP-Protokoll. Diese sind online unter http://www.ietf . In diesem Kapitel werden nur die grundlegenden Mechanismen sowie die zugehörigen Netzwerkkonfigurationsdateien beschrieben.org/rfc. Grundlegendes zu Netzwerken 345 . Weitere Informationen zu diesen Protokollen finden Sie in den entsprechenden RFC-Dokumenten. Die manuelle Konfiguration ist ebenfalls möglich. die im Folgenden beschrieben werden. ein Modem oder ein anderes Gerät kann mit YaST konfiguriert werden.Grundlegendes zu Netzwerken 18 Linux stellt die erforderlichen Netzwerkwerkzeuge und -funktionen für die Integration in alle Arten von Netzwerkstrukturen zur Verfügung. die unterschiedliche Internetprotokolle und Implementierungsverfahren für das Betriebssystem und seine Anwendungen beschreiben. verfügt über unterschiedliche Dienste und Sonderfunktionen. die unterschiedliche Dienste zur Verfügung stellen. 346) aufgelisteten Protokolle dienen dem Datenaustausch zwischen zwei Computern über TCP/IP. Die RFC-Dokumente beschreiben das Einrichten der Internetprotokolle. Die in Tabelle 18. Der Netzwerkzugriff über eine Netzwerkkarte.

Die eigentliche Netzwerkschicht ist der unsichere Datentransfer über IP (Internet Protocol). Es ist nicht garantiert.1. Außerdem bietet es einen speziellen Echomodus. „Vereinfachtes Schichtmodell für TCP/IP“ (S. TCP ermittelt. sicheres Protokoll. TCP wird immer dann implementiert. Die entsprechende Anwendung auf dem Zielhost empfängt die Daten im ursprünglichen Datenstromformat. und stellt sicher. Es verfügt über eine kürzere Latenzzeit als TCP. wenn die Datensequenz eine Rolle spielt. sondern ein spezielles Steuerungsprotokoll. Oberhalb von IP gewährleistet TCP (Transmission Control Protocol) bis zu einem gewissen Grad die Sicherheit des Datentransfers. in dem sie anfänglich gesendet wurden. dass keine Verwechslungen der Daten vorliegen. Internet Control Message Protocol: Dies ist im Wesentlichen kein Protokoll für den Endbenutzer. UDP ist geeignet für datensatzorientierte Anwendungen. z.1 Protokoll TCP Verschiedene Protokolle aus der TCP/IP-Familie Beschreibung Transmission Control Protocol: ein verbindungsorientiertes. Die zu übertragenden Daten werden von der Anwendung zunächst als Datenstrom gesendet und anschließend vom Betriebssystem in das richtige Format konvertiert. Die IP-Schicht wird vom zugrunde liegenden Hardwareabhängigen Protokoll.Tabelle 18. in welcher Reihenfolge die Daten beim Empfänger eingehen. unterstützt. die am TCP/IP-Datentransfer teilnehmen. unsicheres Protokoll. UDP ICMP IGMP Der Datenaustausch findet wie in Abbildung 18. User Datagram Protocol: ein verbindungsloses. steuern kann. Die zu übertragenden Daten werden in Form von anwendungsseitig generierten Paketen gesendet. und ein Datenverlust ist immer möglich. Internet Group Management Protocol: Dieses Protokoll steuert das Verhalten des Computers bei der Implementierung von IP-Multicast. das Fehlerberichte ausgibt und das Verhalten von Computern. 347) dargestellt in unterschiedlichen Schichten statt. ob Daten während der Übertragung verloren gegangen sind. 346 Referenz . B. Ethernet. der mit dem Programm „ping“ angezeigt werden kann.

da die Netzwerkhardware ein einschränkender Faktor sein kann. Die zu übertragenden Daten werden in Pakete unterteilt. Die Pakete sind in der Regel jedoch sehr viel kleiner. Die maximale Größe eines Datenpakets in einem Ethernet beträgt ca. UDP Transportebene Netzwerkebene IP Netzwerkebene Datenverknüpfungsebene Ethernet. Die unterste Schicht ist sehr Hardware-nah. Die Datenverbindungs. 1500 Byte. z. Damit die Schichten ihre vorgesehenen Funktionen erfüllen können.1 Vereinfachtes Schichtmodell für TCP/IP Host Sun Host Earth Anwendungsebene Anwendungen Anwendungsebene Transportebene TCP. Die Größe eines TCP/IP-Pakets ist auf diesen Wert begrenzt. Glasfaser Physische Ebene Datenübertragung Dieses Diagramm bietet für jede Schicht ein oder zwei Beispiele. Fast alle Hardwareprotokolle arbeiten auf einer paketorientierten Basis. müssen im Datenpaket zusätzliche Informationen über die einzelnen Schichten gespeichert sein. Die speziellen Funktionen der einzelnen Schichten gehen bereits aus ihrer Bezeichnung hervor. Die oberste Schicht ist beinahe vollständig von der Hardware losgelöst.Abbildung 18. das Ethernet. ISDN Datenverknüpfungsebene Physische Ebene Kabel. da sie nicht alle auf einmal gesendet werden können. FDDI. wenn die Daten über ein Ethernet gesendet werden. 64 KB. den so genannten ProtokollGrundlegendes zu Netzwerken 347 . Jede Schicht stellt jedem ausgehenden Paket einen kleinen Datenblock voran.und die physische Schicht repräsentieren das verwendete physische Netzwerk. Diese Informationen werden im Header des Pakets gespeichert. Wenn mehr Daten übertragen werden. B. Die Schichten sind nach Abstraktionsstufen sortiert. Die maximale Größe eines TCP/IP-Pakets beträgt ca. Jede Schicht hat ihre eigene spezielle Funktion. müssen vom Betriebssystem mehr Datenpakete gesendet werden.

20 Byte) Ethernet (Ebene 2)-Protokoll-Header (ca.2. Für Anwendungen ist es irrelevant. ist in Abbildung 18.2 TCP/IP-Ethernet-Paket Verwendungsdaten (maximal 1460 Byte) TCP (Ebene 4)-Protokoll-Header (ca. ob die Daten über ein 100 MBit/s schnelles FDDI-Netzwerk oder über eine 56-KBit/s-Modemleitung übertragen werden. Bei eingehenden Daten erfolgt die gesamte Prozedur in umgekehrter Reihenfolge. Informationen zum IPv6-Protokoll.2. Abbildung 18. welche Art von Daten übertragen wird. Auf diese Weise kommuniziert eine Schicht nur mit der direkt darüber bzw. solange die Pakete das richtige Format haben. dem Nachfolger von IPv4. 351). Ähnlich spielt es für die Datenverbindung keine Rolle.1 IP-Adressen und Routing Die in diesem Abschnitt enthaltenen Informationen beziehen sich nur auf IPv4-Netzwerke. Die Transportschicht ist schließlich dafür verantwortlich. Die Protokoll-Header werden von den transportierten Daten in den einzelnen Schichten wie die Schalen einer Zwiebel entfernt. die Daten den Anwendungen am Ziel zur Verfügung zu stellen. finden Sie in Abschnitt 18. Dies erleichtert die Arbeit für die Netzwerkhardware. die mit Ausnahme der physischen Schicht alle im Linux-Kernel implementiert sind. Jede Schicht ist für das Vorbereiten der Daten zur Weitergabe an die nächste Schicht verantwortlich. werden diese Daten durch alle Schichten geleitet. darunter liegenden Schicht. 18. nicht am Anfang. „TCP/IP-Ethernet-Paket“ (S. 348 Referenz . das über ein Ethernetkabel gesendet wird. 348) dargestellt. Ein Beispiel für ein TCP/IP-Datenpaket. „IPv6 – Das Internet der nächsten Generation“ (S. Die Prüfsumme befindet sich am Ende des Pakets. 20 Byte) IP (Ebene 3)-Protokoll-Header (ca.Header. Die unterste Schicht ist letztendlich für das Senden der Daten verantwortlich. 14 Byte) + Prüfsumme (2 Byte)Physische Ebene Wenn eine Anwendung Daten über das Netzwerk sendet.

Das bedeutet. ist es Grundlegendes zu Netzwerken 349 . welcher Teil einer IP-Adresse zum Netzwerk gehört. und somit die entfernte Schnittstelle. Alle Bits mit dem Wert 1 kennzeichnen das entsprechende Bit in der IP-Adresse als zum Netzwerk gehörend. „IPAdressen schreiben“ (S. Die IP-Adresse wird einem Host oder einer Netzwerkschnittstelle zugewiesen. Es gibt zwar Ausnahmen zu dieser Regel. 168.1 IP-Adressen schreiben IP-Adresse (binär): 11000000 10101000 00000000 00010100 IP-Adresse (dezimal): 192. ob sich zwei IP-Adressen im selben Subnetz befinden. Heute wird das klassenlose Routing (CIDR. Sind die Ergebnisse identisch.2 Netzmasken und Routing Mit Netzmasken werden Adressräume eines Subnetzes definiert. „Verknüpfung von IP-Adressen mit der Netzmaske“ (S. Anderenfalls benötigen sie die Adresse eines Gateways. Weitere Informationen zur Funktionsweise von Netzmasken finden Sie in Beispiel 18. Um zu prüfen. Wenn sich zwei Hosts im selben Subnetz befinden. nur über ein Gateway erreicht werden. Bis in die 1990er-Jahre wurden IP-Adressen strikt in Klassen organisiert. 349) dargestellt geschrieben. Diese 32 Bit (oder 4 Byte) werden in der Regel wie in der zweiten Zeile in Beispiel 18.18. Dieses System erwies sich jedoch als zu wenig flexibel und wurde eingestellt. befinden sich beide IP-Adressen im selben lokalen Netzwerk. je mehr Bits den Wert 1 haben.1. Die Netzmaske besteht aus 32 Bit. Diese Adresse kann weltweit nur einmal verwendet werden. Classless Interdomain Routing) verwendet. Da die Netzmaske immer aus mehreren aufeinander folgenden Bits mit dem Wert 1 besteht. können sie direkt kommunizieren. 350). wird jede Adresse bitweise mit der Netzmaske „UND“-verknüpft. Die Punkte in IP-Adressen geben das hierarchische System an. 0. Beispiel 18. 20 Im Dezimalformat werden die vier Byte in Dezimalzahlen geschrieben und durch Punkte getrennt.1. die festlegen.2. Alle Bits mit dem Wert 0 kennzeichnen Bits innerhalb des Subnetzes. das den gesamten Verkehr zwischen dem Subnetz und dem Rest der Welt handhabt. 18. desto kleiner ist das Netzwerk. kann die entfernte IP-Adresse.1 IP-Adressen Jeder Computer im Internet verfügt über eine eindeutige 32-Bit-Adresse. diese sind jedoch für die folgenden Abschnitte nicht relevant. Wenn unterschiedliche Ergebnisse ausgegeben werden.1.

In Beispiel 18. Es ist jedoch auch möglich. 350) könnte das erste Netz mit 24 Bit auch als 192. befinden sich in der Regel im selben Subnetz und der Zugriff auf sie erfolgt direkt. „Verknüpfung von IP-Adressen mit der Netzmaske“ (S. 350 Referenz . Dieses Gateway versucht anschließend. 95.15.95.0): 11111111 11111111 11111111 00000000 --------------------------------------------------------------Ergebnis der Verbindung: 11010101 10111111 00001111 00000000 Im Dezimalsystem: 213.0. Selbst wenn das Subnetz physisch durch Switches oder Bridges unterteilt ist. 15.0/24 geschrieben werden. einfach die Anzahl der Bits in der Netzmaske zu zählen.0): 11111111 11111111 11111111 00000000 --------------------------------------------------------------Ergebnis der Verbindung: 11000000 10101000 00000000 00000000 Im Dezimalsystem: 192. die Pakete auf dieselbe Weise – von Host zu Host – weiterzuleiten. Diese Adresse kann keinem Host zugewiesen werden.auch möglich. Wenn ein Gateway konfiguriert wurde.255. die durch UND mit einer Netzwerkadresse verknüpft ist.255.255. 168. Tabelle 18.20): 11000000 10101000 00000000 00010100 Netzmaske (255. „Verknüpfung von IPAdressen mit der Netzmaske“ (S.2 Verknüpfung von IP-Adressen mit der Netzmaske IP-Adresse (192. bis sie den Zielhost erreichen oder ihre TTL-Zeit (Time to Live) abgelaufen ist. 0 Ein weiteres Beispiel: Alle Computer. In den meisten Fällen wird der gesamte externe Verkehr über lediglich ein Gateway gehandhabt. die über dasselbe Ethernetkabel angeschlossen sind.2. 0 IP-Adresse (213. können diese Hosts weiter direkt erreicht werden. wenn für das Zielnetzwerk ein Gateway konfiguriert ist.2. werden alle externen IP-Pakete an das entsprechende Gateway gesendet. 350) unter Ergebnis dargestellt.168.255.200): 11010101 10111111 00001111 11001000 Netzmaske (255. IP-Adressen außerhalb des lokalen Subnetzes können nur erreicht werden.168.2 Adresstyp Netzwerkbasisadresse Spezifische Adressen Beschreibung Dies ist die Netzmaske. 0. wie in Beispiel 18.0. für unterschiedliche Subnetze mehrere Gateways zu konfigurieren. Beispiel 18.

240.x Netzwerk/Netzmaske 10. Zum Einrichten eines privaten IP-basierten Netzwerks stehen drei Adressdomänen zur Verfügung.16.x 192.0.0.3.0 18.0.0.168.16. Um die Broadcast-Adresse zu generieren.0.x.0. Diese können keine Verbindung zum Internet herstellen. die über TCP/IP kommunizieren.1 ist auf jedem Host dem „LoopbackDevice“ zugewiesen.0/255. können Sie nicht einfach eine Adresse nach dem Zufallsprinzip wählen.31.255 lauten. Mit dieser Adresse kann eine Verbindung zu Ihrem Computer hergestellt werden.168.x. 351) aufgelistet. Seit Tim Berners-Lee bei CERN Grundlegendes zu Netzwerken 351 .0. Diese Adressdomänen sind in RFC 1597 festgelegt und werden in Tabelle 18. Tabelle 18.0/255.2 IPv6 – Das Internet der nächsten Generation Aufgrund der Entstehung des WWW (World Wide Web) hat das Internet in den letzten 15 Jahren ein explosives Wachstum mit einer immer größer werdenden Anzahl von Computern erfahren.x 172. Lokaler Host Da IP-Adressen weltweit eindeutig sein müssen.x – 172. Das Ergebnis im obigen Beispiel würde 192.x.255.Adresstyp Broadcast-Adresse Beschreibung Dies bedeutet im Wesentlichen „Senden an alle Hosts in diesem Subnetz“.0.x. wird die Netzmaske in die binäre Form invertiert und mit einem logischen ODER mit der Netzwerkbasisadresse verknüpft. „Private IPAdressdomänen“ (S.168.0.3 Private IP-Adressdomänen Domäne 10.0 192.0 172. Die Adresse 127. Diese Adresse kann keinem Host zugewiesen werden.0/255.x.0.0. da sie nicht über das Internet übertragen werden können.

ch) 1990 das WWW erfunden hat.1 Vorteile Die wichtigste und augenfälligste Verbesserung durch das neue Protokoll ist der enorme Zuwachs des verfügbaren Adressraums. Eine IPv6-Adresse besteht aus 128-Bit-Werten und nicht aus den herkömmlichen 32 Bit. B. private und öffentliche Adressräume getrennt zu halten. Alle diese Einträge müssen bekannt sein und können nicht von anderer Stelle her abgeleitet werden. Wie bereits erwähnt. die IP-Adresse des Hosts. Das Problem liegt in der Konfiguration der Adressen. Die Anzahl der in Ihrem Subnetz verfügbaren Adressen ist zwei hoch der Anzahl der Bits minus zwei. Sie verfügen auch über eine andere interne Struktur. die Gateway-Adresse und möglicherweise die Adresse des Namenservers. Dies ermöglicht mehrere Billiarden IPAdressen. Die folgenden Abschnitte enthalten weitere Informationen zu den Verbesserungen und Vorteilen von IPv6 sowie zum Übergang vom alten zum neuen Protokoll. 18. 6 oder 14 Adressen. Mit IPv6 gehören sowohl der Adressmangel als auch die komplizierte Konfiguration der Vergangenheit an. da zwei IP-Adressen für die Struktur des Subnetzes selbst erforderlich sind: die Broadcast. Außerdem gehen zahlreiche IP-Adressen verloren.und die Netzwerkbasisadresse. da sie aufgrund der organisatorischen Bedingtheit der Netzwerke nicht verwendet werden können. „Adresstypen und struktur“ (S.web. können diese Methoden den Adressmangel sicherlich mäßigen. IPv6-Adressen unterscheiden sich nicht nur hinsichtlich ihrer Länge gänzlich von ihren Vorgängern. Kombiniert mit der Konvention. 100 Millionen angewachsen. besteht eine IPv4-Adresse nur aus 32 Bit. 352 Referenz . Unter dem aktuellen IPv4-Protokoll sind DHCP oder NAT (Network Address Translation) die typischen Mechanismen. ist die Anzahl der Internethosts von ein paar tausend auf ca. die spezifischere Informationen zu den Systemen und Netzwerken enthalten kann. z. benötigen Sie mehrere Adressen. Weitere Informationen hierzu finden Sie in Abschnitt 18. benötigen Sie ein Subnetz mit 256 IP-Adressen. Um einen Host in einem IPv4-Netzwerk einzurichten.(http://public. die Subnetzmaske. Um beispielsweise 128 Hosts mit dem Internet zu verbinden.2. 354). von denen nur 254 verwendbar sind. zu denen sie gehören. um einem potenziellen Adressmangel vorzubeugen.cern. die schwierig einzurichten und zu verwalten ist.2. Ein Subnetz verfügt also beispielsweise über 2.2.

die vollständig unabhängig voneinander sind. IPv6 umfasst IPSec als eine seiner Kernfunktionen und ermöglicht es Systemen. um beide Protokolle gleichzeitig unterstützen zu können. Sichere Kommunikation Bei IPv4 ist die Netzwerksicherheit eine Zusatzfunktion. das gesamte Internet auf einmal von IPv4 auf IPv6 umzustellen. Dies wird durch kompatible Adressen (IPv4-Adressen können problemlos in IPv6-Adressen konvertiert werden) und die Verwendung von Tunnels gewährleistet. bei dem für die automatische Adresszuordnung ein DHCP-Server erforderlich ist. Dadurch können Benutzer problemlos auf mehrere Netzwerke zugreifen. sodass Sie überall unter Ihrer Rufnummer erreichbar sind und Anrufe genauso wie in Ihrem Heimatland tätigen können.3. Diese Methode erfordert kein Eingreifen des Administrators und für die Adresszuordnung muss kein zentraler Server verfügbar sein. Mobilität IPv6 ermöglicht es. um das Ausspionieren durch Außenstehende über das Internet zu verhindern. dass beide Protokolle nicht nur im Internet. Wenn Sie Ihr Mobiltelefon mit ins Ausland nehmen. „Koexistenz von IPv4 und IPv6“ (S. h.. sobald Sie dessen Bereich betreten. sodass zwischen den beiden Protokollversionen keine Konflikte auftreten. über einen sicheren Tunnel zu kommunizieren. dass sie über zwei Netzwerk-Stacks verfügen. d. meldet sich das Telefon automatisch bei dem fremden Dienst an. die von den benachbarten Routern zur Verfügung gestellt werden. einer Netzwerkschnittstelle gleichzeitig mehrere Adressen zuzuordnen. was beispielsweise mit den von Mobilfunkunternehmen angebotenen internationalen Roaming-Diensten vergleichbar ist. 359).2. ein neu eingerichtetes System wird ohne jegliche manuelle Konfiguration in das (lokale) Netzwerk integriert. ist es unmöglich. Daher ist es wichtig. Dabei nutzt er ein Protokoll. Siehe Abschnitt 18. Abwärtskompatibilität Realistisch gesehen. Grundlegendes zu Netzwerken 353 . Dies bedeutet. Dies ist ein weiterer Vorteil gegenüber IPv4. um seine eigene Adresse aus den Informationen abzuleiten. Außerdem können Systeme eine DualStack-IP-Technik verwenden. Der neue Host verwendet die automatischen Konfigurationsmechanismen.In der folgenden Liste werden einige der wichtigsten Vorteile des neuen Protokolls aufgeführt: Automatische Konfiguration IPv6 macht das Netzwerk „Plug-and-Play“-fähig. das als ND-Protokoll (Neighbor Discovery) bezeichnet wird. sondern auf einem System koexistieren können.

d. z. 354 Referenz . Welche Hosts als Gruppe adressiert werden. Multicast-Adressen werden hauptsächlich von bestimmten Netzwerkdiensten für die Kommunikation mit bestimmten Hostgruppen verwendet. ihre Pakete via Broadcast an alle Hosts im lokalen Netzwerk verteilen. h. die drei unterschiedlichen Adresstypen zu kennen: Unicast Adressen dieses Typs werden genau einer Netzwerkschnittstelle zugeordnet. Pakete mit derartigen Adressen werden an alle Ziele zugestellt. sie sprechen mehrere Hosts als Teile einer Gruppe an.Bedarfsgerechte Dienste über Multicasting Mit IPv4 müssen einige Dienste. IPv6 erlaubt einen sehr viel feineren Ansatz. Hosts über Multicasting anzusprechen. Multicast Adressen dieses Typs beziehen sich auf eine Gruppe von Netzwerkschnittstellen. kann je nach Anwendung unterschiedlich sein.. Bei der Arbeit mit IPv6 ist es hilfreich. einem Gerät mehrere Adressen zuzuordnen und so den Zugriff auf mehrere Netzwerke zu ermöglichen) kombiniert wird. die mit weiteren hoch entwickelten Techniken zum Zuordnen von Netzwerkadressen sowie mit dem Multihoming (der Fähigkeit. IPv6 löst das erste Problem durch die Erweiterung des Adressraums auf 128 Bit. die dieser Gruppe angehören. mit der beispielsweise alle Namenserver (die Multicast-Gruppe „all name servers“) oder alle Router (die Multicast-Gruppe „all routers“) angesprochen werden können. Dies unterscheidet sich von der Adressierung aller Hosts über Broadcasting oder der Einzeladressierung der Hosts über Unicasting. Pakete mit derartigen Adressen werden nur einem Ziel zugestellt. Unicast-Adressen werden dementsprechend zum Übertragen von Paketen an einzelne Hosts im lokalen Netzwerk oder im Internet verwendet. B. 18. Das zweite Problem wird durch die Einführung einer hierarchischen Adressstruktur behoben. indem es Servern ermöglicht. SMB. Es gibt einige vordefinierte Gruppen.2.2 Adresstypen und -struktur Wie bereits erwähnt weist das aktuelle IP-Protokoll zwei wichtige Aspekte nicht auf: Es gibt einen zunehmenden Mangel an IP-Adressen und das Konfigurieren des Netzwerks sowie die Verwaltung der Routing-Tabellen wird immer komplexer und arbeitsintensiver. wobei diese gezielt adressiert werden.

Anycast Adressen dieses Typs beziehen sich auf eine Gruppe von Schnittstellen. Die Felder werden ebenfalls durch Doppelpunkte (:) getrennt. Beispiel 18. dass mehr als vier aufeinander folgenden Null-Byte mit einem doppelten Doppelpunkt zusammengefasst werden können. und wird in hexadezimaler Notation geschrieben. 355) enthalten Informationen zum Netzwerk (die ersten 64 Bit) und zum Hostteil (die letzten 64 Bit). alle anderen Nullen jedoch nicht.3.3 Beispiel einer IPv6-Adresse fe80 : 0000 : 0000 : 0000 : 0000 : 10 : 1000 : 1a4 fe80 : 0 : 0 : 0 : 0 : 10 : 1000 : 1a4 fe80 : : 10 : 1000 : 1a4 Jeder Teil einer IPv6-Adresse hat eine festgelegte Funktion. ob sich der Host im selben oder einem anderen Subnetz befindet. Wann immer ein Host einen Dienst anfordert.4 IPv6-Adressen mit Angabe der Präfix-Länge fe80::10:1000:1a4/64 Grundlegendes zu Netzwerken 355 . Adressen wie in Beispiel 18. Wie bei IPv4 wird die IP-Adresse mit den Werten aus der Netzmaske durch UND verknüpft. Sämtliche Server desselben Typs verfügen über dieselbe Anycast-Adresse. Bei IPv6 wird die Netzmaske definiert. „IPv6-Adressen mit Angabe der Präfix-Länge“ (S. Pro Adresse ist jedoch nur ein :: zulässig. das dem Absender am nächsten ist. dann den dritten usw. wobei jedes 16 Bit repräsentiert. ***DELETE***. wählt das Protokoll automatisch den zweitnächsten Server. Anycast-Adressen werden verwendet. um zu ermitteln. Die 64 bedeutet. aus. 355) dargestellt. Das Ende der Adresse bildet der Hostteil. Die ersten Byte bilden das Präfix und geben den Typ der Adresse an. Diese Art der Kurznotation wird in Beispiel 18. Eine IPv6-Adresse besteht aus acht vierstelligen Feldern. damit Hosts Informationen zu Servern schneller abrufen können. der möglicherweise nicht verwendet wird. Beispiel 18. erhält er eine Antwort von dem vom Routing-Protokoll ermittelten nächstgelegenen Server. Wenn dieser Server aus irgendeinem Grund nicht erreichbar ist. Der mittlere Teil ist der Netzwerkteil der Adresse. Eine weitere Konvention ist. „Beispiel einer IPv6-Adresse“ (S. Alle führenden Null-Byte innerhalb eines bestimmten Felds können ausgelassen werden. die im angegebenen Netzwerkbereich bestimmte Dienste anbieten. dass die Netzmaske mit 64 1-Bit-Werten von links gefüllt wird. in dem alle drei Zeilen derselben Adresse entsprechen.4. indem die Länge des Präfixes nach einem Schrägstrich am Ende der Adresse angegeben wird. Pakete mit einer derartigen Adresse werden gemäß den Prinzipien des zugrunde liegenden Routing-Protokolls dem Mitglied der Gruppe gesendet.

Damit entsprechen diese Adressen den bisherigen privaten Netzen (beispielsweise 10.x. Hier sind Informationen zum Provider oder der Institution kodiert.x. dient dem Routing des Pakets im öffentlichen Internet. verfügen ebenfalls über dieses Präfix. die für das Loopback-Device. Wie bei IPv4 kann eine Schnittstelle zugewiesen werden. Dies sind Multicast-Adressen.4. dem sie angehören. Tabelle 18. um einen Teil eines bestimmten Stelle Subnetzes zu bilden. fe80::/10 Link-local-Adressen. der IPv6-Pakete in IPv4Pakete konvertieren kann. 356 Referenz . fec0::/10 ff Eine Unicast-Adresse besteht aus drei grundlegenden Komponenten: Öffentliche Topologie Der erste Teil.IPv6 kennt mehrere vordefinierte Präfixtypen. Diese werden zur Erhaltung der Kompatibilität mit IPv4 verwendet. 356) aufgeführt. Site-local-Adressen. die den Netzwerkzugang bereitstellen. Mehrere spezielle Adressen. aber nur innerhalb des Organisationsnetzwerks. „Unterschiedliche IPv6-Präfixe“ (S. Einige von diesen sind in Tabelle 18. z. Für diesen Adresstyp wird ein Router benötigt. Diese Adressen dürfen zwar geroutet werden.4 Unterschiedliche IPv6-Präfixe Definition Präfix (hexadezimal) 00 IPv4-über-IPv6-Kompatibilitätsadressen. Aktuell gibt es folgende Adressräume: 2001::/16 (Production Quality Address Space) und 2002::/16 (6to4 Address Space). B.x. 2 oder 3 als erste Aggregierbare globale Unicast-Adressen. der unter anderem auch eines der oben erwähnten Präfixe enthält. Adressen mit diesem Präfix dürfen nicht geroutet werden und können daher nur im gleichen Subnetz erreicht werden.

IPv4-kompatible Adressen Die IPv6-Adresse setzt sich aus der IPv4-Adresse und einem Präfix von 96 0-Bits zusammen. IPv4/IPv6-Hosts können so mit anderen kommunizieren. 359)). Dieser Typ der Kompatibilitätsadresse wird beim Tunneling verwendet (siehe Abschnitt 18.und ISDN-Verbindungen) ein EUI-64-Token zuzuweisen. Geräten ohne MAC-Adresse (z. Das ermöglicht dann auch. PPP. Lokale Adressen Es gibt zwei Typen von Adressen zum rein lokalen Gebrauch: Grundlegendes zu Netzwerken 357 . die MAC-Adresse als Adressbestandteil zu verwenden. wenn seine Netzwerkschnittstelle zum ersten Mal initialisiert wird und die Adresse noch nicht anderweitig ermittelt werden kann. B. ::1 (Loopback) Adresse des Loopback-Device.3. Schnittstellen-ID Der dritte Teil identifiziert eindeutig die Schnittstelle. Die ersten 64 Bit werden zu einem so genannten EUI-64-Token zusammengefasst. vereinfacht sich die Konfiguration auf diese Weise sehr. „Koexistenz von IPv4 und IPv6“ (S. die etwas über den Typ des Tokens aussagen. Dabei werden die letzten 48 Bit der MAC-Adresse entnommen und die restlichen 24 Bit enthalten spezielle Informationen. in dem das Paket zugestellt werden soll. an die das Paket gerichtet ist. die sich in einer reinen IPv4-Umgebung befinden.2. Da diese weltweit nur einmal vorhanden und zugleich vom Hardwarehersteller fest vorgegeben ist. IPv6-gemappte IPv4-Adressen Dieser Adresstyp gibt die Adresse in IPv6-Notation an.Site-Topologie Der zweite Teil enthält Routing-Informationen über das Subnetz. Abgeleitet aus diesem Grundaufbau werden bei IPv6 fünf verschiedene Typen von Unicast-Adressen unterschieden: :: (nicht spezifiziert) Diese Adresse verwendet ein Host als Quelladresse. Dies erlaubt.

Das hat den Vorteil. braucht er mindestens zwei Adressen. Neben einem definierten Präfix (fec0::/10) und der Schnittstellen-ID enthalten diese Adressen ein 16-Bit-Feld. Stateless Autoconfiguration und Neighbor Discovery. Diese Adressen heißen Care-of-Adressen. Diese Funktion wird in einer IPv6-Umgebung vom Home-Agenten übernommen. Solche Adressen werden für Intranets eingesetzt und sind ein Äquivalent zu den privaten IPv4-Adressen. die zu den fremden Netzen gehören. seine Home-Adresse. Router dürfen Pakete mit solcher Ziel. Bewegt sich ein Host zwischen mehreren Netzen hin und her. und das entsprechende Präfix. Möglich wird die Zustellung im Fremdnetz über wesentliche Neuerungen des IPv6-Protokolls. site-local Pakete mit diesem Adresstyp dürfen zwischen einzelnen Subnetzen geroutet werden. je nachdem in welchem Netz dieser Host aktuell zu erreichen ist.link-local Dieser Adresstyp ist ausschließlich für den Gebrauch im lokalen Subnetz bestimmt.oder Quelladresse nicht an das Internet oder andere Subnetze weiterreichen. z. in dem die SubnetzID kodiert ist. in dem der Computer normalerweise betrieben wird. Die eine. Diese Adressen zeichnen sich durch ein spezielles Präfix (fe80::/10) und die Schnittstellen-ID der Netzwerkkarte aus. Durch die MAC-Adresse als Bestandteil der IP-Adresse ist jede dieser Adressen global eindeutig. Der Mittelteil der Adresse besteht aus Null-Bytes. Zusätzlich gibt es in IPv6 eine grundsätzlich neue Funktion: Einer Netzwerkschnittstelle werden üblicherweise mehrere IP-Adressen zugewiesen. die an seine Home-Adresse gerichtete Pakete nachsendet. sodass gleich nach Aktivierung von IPv6 alle Hosts im lokalen Netz über Link-local-Adressen erreichbar sind. Der mobile Rechner hat neben seiner HomeAdresse eine oder mehrere weitere Adressen. Die Home-Adresse ist statisch und wird in der Regel nicht verändert. werden ihm sowohl im eigenen als auch in fremden Netzen zugestellt. um Hosts im selben Subnetz anzusprechen. Einzig die Teile der Site-Topologie und der öffentlichen Topologie können variieren. sollte er sich in einem anderen Netz befinden. B. Alle Pakete. Im Heimatnetz des mobilen Rechners muss eine Instanz vorhanden sein. die für diesen Host bestimmt sind. Diese Art Adresse wird von den Autokonfigurationsmethoden verwendet. dass mehrere verschiedene Netze zur Verfügung stehen. Er stellt alle 358 Referenz . Eines davon kann mithilfe der MAC-Adresse und einem bekannten Präfix vollautomatisch konfiguriert werden. aber nicht außerhalb einer Organisation ins Internet gelangen. in denen er sich bewegt. Der Rest wird wieder mit Null-Bytes aufgefüllt. beinhaltet neben der Schnittstellen-ID die Informationen zu dem Heimatnetz.

Aus diesem Grund wurden für IPv6 drei verschiedene Verfahren entwickelt. die die Möglichkeit von IP-Multicasting bieten. in dem Multicasting aktiviert ist. Die Koexistenz auf einem Rechner ist dann möglich. wie IPv6-Rechner mit IPv4-Rechnern kommunizieren können und wie IPv6-Pakete über die momentan noch vorherrschenden IPv4-Netze transportiert werden sollen. Grundlegendes zu Netzwerken 359 .2. Diese Lösung eignet sich für kleinere Netzwerke.3 Koexistenz von IPv4 und IPv6 Die Migration aller mit dem Internet verbundenen Hosts von IPv4 auf IPv6 wird nicht auf einen Schlag geschehen. über einen Tunnel zu. Pakete. Einzelne IPv6-Hosts im (weltweiten) IPv4-Netz tauschen ihre Daten über Tunnel aus. das gesamte Netzwerk (Internet) sei ein einziges. Beim Tunneling werden IPv6-Pakete in IPv4-Pakete verpackt. 354)) sind hier die besten Lösungen. Ein solches Tunneling wird statisches Tunneling genannt.2.Pakete.2. „Adresstypen und -struktur“ (S. 18. Hierbei müssen die Pakete die IPv6-Zieladresse (oder das entsprechende Präfix) und die IPv4-Adresse des entfernten Hosts am Tunnelendpunkt enthalten. Trotzdem reicht manuelles Tunneling oft nicht aus. Einfache Tunnel können von den Administratoren zwischen ihren Netzwerken manuell und nach Absprache konfiguriert werden. Ein Tunnel ist definiert als die Verbindung zwischen zwei IPv4-Endpunkten. So wird der IPv4-Endpunkt des Tunnel automatisch ermittelt. wenn beide Protokolle im Dual Stack-Verfahren implementiert sind. Vielmehr werden das alte und das neue Protokoll noch eine ganze Weile nebeneinanderher existieren. die als Zieladresse die Care-of-Adresse tragen. Nachteile dieser Methode sind die schlechte Skalierbarkeit und die Tatsache. um sie über ein IPv4Netzwerk transportieren zu können. können ohne Umweg über den Home-Agenten zugestellt werden. IPv6 wird vorgespiegelt. Die zugrunde liegenden Spezifikationen sind in RFC 2529 enthalten. Tunneling und die Verwendung von Kompatibilitätsadressen (siehe Abschnitt 18. die das dynamische Tunneling erlauben: 6over4 IPv6-Pakete werden automatisch in IPv4-Pakete verpackt und über ein IPv4Netzwerk versandt. um die Menge der zum täglichen vernetzten Arbeiten nötigen Tunnel aufzubauen und zu verwalten. dass IP-Multicasting keineswegs im gesamten Internet verfügbar ist. die an die Home-Adresse des mobilen Rechners gerichtet sind. riesiges LAN (Local Area Network). Es bleibt aber die Frage.

6to4 Bei dieser Methode werden automatisch IPv4-Adressen aus IPv6-Adressen generiert. Dazu muss jedoch die IPv6-Unterstützung geladen werden.2. die für IPv6 automatisch dedizierte Tunnel anlegen. Aufgrund des Konzepts der automatischen Konfiguration von IPv6 wird der Netzwerkkarte eine Adresse im Link-local-Netzwerk zugewiesen. müssen Sie auf den einzelnen Arbeitsstationen in der Regel keine Änderungen vornehmen.4 IPv6 konfigurieren Um IPv6 zu konfigurieren. Diese Methode wird in RFC 3056 beschrieben. Zum Einrichten eines IPv6-Routers kann das radvd-Programm verwendet werden. die die Kommunikation zwischen den isolierten IPv6-Hosts und dem Internet betreffen. IPv6 Tunnel Broker Dieser Ansatz sieht spezielle Server vor. welches Präfix und welche Gateways implementiert werden sollen. Diese Methode wird in RFC 3053 beschrieben. die über Tunnel miteinander verbunden sind. Dieses Programm informiert die Arbeitsstationen darüber. WICHTIG: Die 6Bone-Initiative Mitten im „altmodischen“ Internet existiert ein weltweit verteiltes Netzwerk von IPv6-Subnetzen.6bone.net). um Erfahrungen mit dem neuen Protokoll zu sammeln. eine IPv6-Testumgebung. Bei Netzwerkroutern kann von der Arbeitsstation unter Verwendung des Router-Advertisement-Protokolls abgefragt werden. 18. 360 Referenz . Weitere Informationen finden Sie auf den Projektseiten von 6Bone im Internet. die von Programmierern und ISPs genutzt werden kann. Alternativ können Sie die Adressen und das Routing auch mit zebra automatisch konfigurieren. welches Präfix und welche Router für die IPv6Adressen verwendet werden sollen. Allerdings gibt es einige Probleme. die IPv6-basierte Dienste entwickeln und anbieten möchten. Geben Sie hierzu den Befehl modprobe ipv6 als root ein. So können isolierte IPv6-Hosts über ein IPv4-Netz miteinander kommunizieren. In der Regel werden RoutingTabellen nicht auf Arbeitsstationen verwaltet. Dies ist das 6Bone-Netzwerk (http://www.

der diese Umwandlung dann erledigt. http://www. IPv6 Essentials Ein Buch. Der Computer. Weitere ausführliche Informationen zu dem neuen Protokoll finden Sie in den folgenden Online-Dokumentationen und -Büchern: http://www. ist IPv6 Essentials von Silvia Hagen (ISBN 0-596-00125-8).de/linux/IPv6/ Hier finden Sie den Beitrag „Linux IPv6 HOWTO“ und viele verwandte Links zum Thema. RFC 2640 Die grundlegenden IPv6-Spezifikationen.ngnet.Weitere Informationen zum Einrichten der unterschiedlichen Tunneltypen mithilfe der Dateien im Verzeichnis /etc/sysconfig/network finden Sie auf der Manualpage „ifup(8)“.6bone. 18. wenn Sie eine Verbindung zu einem getunnelten IPv6Netzwerk benötigen. http://www. nennt sich Namenserver.php Eine Artikelserie mit einer gut geschriebenen Einführung in das IPv6-Konzept.bieringer. Eine gute Grundlage für das Thema.org/ Alles rund um IPv6. in dem alle wichtigen Aspekte zum Thema enthalten sind. 18. http://www. Dabei bilden die Namen Grundlegendes zu Netzwerken 361 .3 Namensauflösung Mithilfe von DNS kann eine IP-Adresse einem oder sogar mehreren Namen zugeordnet werden und umgekehrt auch ein Name einer IP-Adresse.it/e/cosa-ipv6.net/ Besuchen Sie diese Site.2.ipv6. Unter Linux erfolgt diese Umwandlung üblicherweise durch eine spezielle Software namens bind.5 Weitere Informationen Das komplexe IPv6-Konzept wird im obigen Überblick nicht vollständig abgedeckt.

. Damit auch Ihr Rechner einen Namen in eine IP-Adresse auflösen kann. in der die Namen aller im Internet vertretenen Rechner gespeichert waren. welcher Host für eine ganze Domäne E-Mails annimmt. woanders aber immer die aus zwei Buchstaben bestehenden ISO-Länderbezeichnungen. 362 Referenz . dass die manuelle Konfiguration eines Namenservers nicht erforderlich ist.com). . Dies erwies sich bei der schnell wachsenden Menge der mit dem Internet verbundenen Computer als unpraktikabel. in dem die einzelnen Namensbestandteile durch Punkte getrennt sind. DNS kann noch mehr als nur Hostnamen auflösen.info.com. Ein vollständiger Name. Ein Bestandteil des Domänennamens ist die Top Level Domain oder TLD (com).museum). Schauen wir uns einmal einen vollständigen Namen an. B. sondern kann Anfragen an ihm nachgeschaltete. z. 399) beschrieben.domain. andere Namenserver weiterdelegieren. Die Konfiguration des Namenserverzugriffs unter SUSE Linux ist in Kapitel 20.net. der so genannte Mail Exchanger (MX). muss ihm mindestens ein Namenserver mit einer IP-Adresse bekannt sein. die die Hostnamen verteilt speichern kann. Aus historischen Gründen ist die Zuteilung der TLDs etwas verwirrend. B. Weitere Informationen zu TLD-NICs finden Sie unter http://www. Der Root-Namenserver kennt die jeweils für eine Top Level Domain zuständigen Namenserver. In der Frühzeit des Internets (vor 1990) gab es die Datei/etc/hosts. earth. besteht aus einem Hostund einem Domänennamen (example. Die Namenshierarchie ist aber unabhängig von der oben beschriebenen Hierarchie der IP-Adressen. hält also nicht die Daten aller Computer im Internet vorrätig. Das Einwahlprotokoll liefert die Adresse des Namenservers bei der Einwahl gleich mit.wieder ein hierarchisches System. geschrieben im Format hostname. Der Namenserver weiß auch. Falls Sie eine Einwahl über Modem vornehmen.name. Diese Datenbank. Deshalb wurde eine dezentralisierte Datenbank entworfen. Die Konfiguration eines Namenservers erledigen Sie komfortabel mithilfe von YaST. An der Spitze der Hierarchie befinden sich die Root-Namenserver. Das Domain Name System (DNS) (S. . der als Fully Qualified Domain Name oder kurz als FQDN bezeichnet wird. eben jener oben erwähnte Namenserver. Die Root-Namenserver verwalten die Domänen der obersten Ebene (Top Level Domains) und werden vom Network Information Center (NIC) verwaltet.example. Seit 2000 stehen zusätzliche TLDs für spezielle Sachgebiete mit zum Teil mehr als drei Buchstaben zur Verfügung (z. kann es sein. So werden in den USA traditionell dreibuchstabige TLDs verwendet.internic.

Entscheiden Sie.4 Konfigurieren von Netzwerkverbindungen mit YaST Unter Linux gibt es viele unterstützte Netzwerktypen.6. Detaillierte Informationen zu NetworkManager finden Sie in Abschnitt 18. Im oberen Teil der traditionellen Konfiguration wird eine Liste mit allen für die Konfiguration verfügbaren Netzwerkkarten angezeigt. Um NetworkManager zu verwenden. Während der Installation können sämtliche erkannte Schnittstellen mit YaST automatisch konfiguriert werden. 364) beschrieben konfiguriert werden. Grundlegendes zu Netzwerken 363 . Zusätzliche Hardware kann nach Abschluss der Installation jederzeit konfiguriert werden. „Verwalten der Netzwerkverbindungen mit NetworkManager“ (S. 375). ob YaST oder NetworkManager für die Verwaltung all Ihrer Netzwerkgeräte verwendet werden soll. 18. Nicht erkannte Geräte können über Hinzufügen wie in „Manuelle Konfiguration einer nicht erkannten Netzwerkkarte“ (S. 18.Eng verwandt mit DNS ist das Protokoll whois. Alle ordnungsgemäß erkannten Karten werden mit ihren Namen aufgeführt. 378).5. wer für eine bestimmte Domäne verantwortlich ist. aktivieren Sie Benutzergesteuert mithilfe von NetworkManager.4. In den folgenden Abschnitten wird die Netzwerkkonfiguration für alle von SUSE Linux unterstützten Netzwerkverbindungen beschrieben. Wenn Sie Ihr Netzwerk auf traditionelle Weise mit YaST konfigurieren möchten. Konfigurieren Sie eine neue Netzwerkkarte oder ändern Sie die Konfiguration eines bereits konfigurierten Geräts. Einen detaillierten Überblick über die Aspekte der manuellen Netzwerkkonfiguration finden Sie in Abschnitt 18. Mit dem gleichnamigen Programm whois können Sie schnell ermitteln. aktivieren Sie Traditionelle Methode mit ifup.1 Konfigurieren der Netzwerkkarte mit YaST Nach dem Starten des YaST-Moduls gelangen Sie in eine allgemeine Übersicht zur Netzwerkkonfiguration. Die meisten von diesen verwenden unterschiedliche Gerätenamen und die Konfigurationsdateien sind im Dateisystem an unterschiedlichen Speicherorten verteilt. „Manuelle Netzwerkkonfiguration“ (S.

364 Referenz . aktivieren Sie die entsprechenden Kontrollkästchen und schließen Sie das Dialogfeld durch Klicken auf Weiter. die nicht erkannt wurde. Kernelmodul Name der Hardwarekonfiguration gibt den Namen der Datei /etc/sysconfig/ hardware/hwcfg-* an.und USB-Hardware in den meisten Fällen sinnvolle Namen vor.Manuelle Konfiguration einer nicht erkannten Netzwerkkarte Zur Konfiguration einer Netzwerkkarte. Wenn es sich bei der Netzwerkkarte um ein PCMCIA. Für alle anderen Hardwarekomponenten ist hwcfg-static-0 nur dann sinnvoll. Schließen Sie das Dialogfeld mit Weiter. YaST schlägt für PCMCIA. nehmen Sie folgende Grundeinstellungen vor: Netzwerkkonfiguration Wählen Sie den Gerätetyp der Schnittstelle aus und legen Sie den Konfigurationsnamen fest. wenn die Karte mit dem Konfigurationsnamen 0 konfiguriert ist. Dazu gehören der Name des entsprechenden Kernelmoduls sowie die zum Initialisieren der Hardware erforderlichen Optionen. Informationen zu den Namenskonventionen für Konfigurationsnamen finden Sie auf der Manualpage getcfg(8). YaST wählt dann automatisch das geeignete Kernelmodul für die Karte aus.oder USB-Gerät handelt. in der die Hardware-Einstellungen der Netzwerkkarte enthalten sind. Wählen Sie anderenfalls über die Option Auswahl aus Liste das Modell Ihrer Netzwerkkarte aus.

können Sie sich von dort automatisch die Konfigurationsdaten Ihrer Netzwerkkarte übermitteln lassen. um die Konfiguration der Karte abzuschließen. wenn Sie eine DSL-Leitung verwenden. „Konfiguration mit YaST“ (S. Klicken Sie auf OK. Eine ausführliche Beschreibung der Konfiguration von WLAN-Karten finden Sie in Abschnitt 34. Die Voreinstellungen sind in der Regel sinnvoll und können übernommen werden. Für alle anderen Schnittstellentypen fahren Sie mit der Art der Adressvergabe für Ihre Netzwerkkarte fort: Automatische Adressenkonfiguration (mit DHCP) Wenn Ihr Netzwerk einen DHCP-Server enthält.1.3 Konfiguration der Netzwerkkarte Festlegen der Netzwerkadresse Legen Sie den Gerätetyp der Schnittstelle und den Konfigurationsnamen fest. 661). konfigurieren Sie im nächsten Dialogfeld Konfiguration der drahtlosen Netzwerkkarte den Betriebsmodus.3. Informationen zu den Namenskonventionen für Konfigurationsnamen finden Sie auf der Manualpage getcfg(8). den Netzwerknamen (ESSID) und die Verschlüsselung. Den Konfigurationsnamen können Sie nach Bedarf festlegen. Wählen Sie den Gerätetyp aus. Ihr ISP Ihnen Grundlegendes zu Netzwerken 365 .Abbildung 18. Wenn Sie als Gerätetyp der Schnittstelle Drahtlos gewählt haben. Diese Option sollten Sie auch aktivieren.

des Namenservers und der Routing-Details fort (siehe Abschnitte zu DNS-Server (↑Start) und Routing (↑Start)). 18. Schnittstellen werden von DHCP-Servern standardmäßig anhand der Hardware-Adresse der Netzwerkkarte identifiziert. Unter Besondere Einstellungen bietet die Option Benutzergesteuert die Möglichkeit. Die Voreinstellung für die Subnetzmaske ist so gewählt. da er dann das Aktivieren oder Deaktivieren der Schnittstelle selbst steuern kann. Konfiguration der statischen Adresse Aktivieren Sie diese Option. dass sie für ein typisches Heimnetz ausreicht.aber keine statische IP-Adresse zugewiesen hat. 366 Referenz . Schließen Sie dieses Dialogfeld. Falls die automatische Erkennung fehlschlägt. in der unterschiedliche Hosts über dieselbe Schnittstelle kommunizieren. die Netzwerkverbindungen schneller zu wechseln. indem Sie Weiter wählen. werden diese anhand einer Kennung unterschieden.2 Modem Im YaST-Kontrollzentrum finden Sie unter Netzwerkgeräte die Modem-Konfiguration. oder fahren Sie mit der Konfiguration des Hostnamens. Geben Sie anschließend die Adresse und Subnetzmaske für das Netzwerk ein. Legen Sie fest. Geben Sie in diesem Dialogfeld unter Modem die Schnittstelle an. mit der das Modem verbunden ist. In einer virtuellen Hostumgebung. Außerdem können Sie optional eine Kennung angeben. ob der DHCP-Server immer auf Broadcast-Anforderungen antworten soll. maximale Übertragungsgröße) und der Typ der Geräte-Aktivierung können ebenfalls in diesem Dialogfeld festgelegt werden.4. öffnen Sie das Dialogfeld für die manuelle Konfiguration. gelangen Sie über die Option Optionen für DHCP-Client zur Client-Konfiguration. Die MTU (Maximum Transmission Unit. wenn Sie eine statische Adresse haben. Wenn Sie DHCP nutzen möchten. Erweitert ermöglicht das Festlegen komplexerer Einstellungen. die Steuerung der Netzwerkkarte vom Administrator (root) an den normalen Benutzer zu delegieren. Im mobilen Einsatz erlaubt dies dem Benutzer.

Wählen Sie im folgenden Dialogfeld den ISP (Internet Service Provider).4 Modemkonfiguration Wenn eine Telefonanlage zwischengeschaltet ist. kann ein Benutzer ohne Administratorberechtigungen keine andere Vorwahl festlegen. Auf diese Weise kann ein Benutzer ohne Administratorberechtigungen eine Schnittstelle aktivieren oder deaktivieren. Wenn Sie Ihren Provider aus einer Liste der für Ihr Land verfügbaren Provider auswählen möchten. aktivieren Sie Benutzergesteuert. Dieser muss der vom Benutzer unter Dial Prefix (Vorwahl) in KInternet bearbeitbaren Vorwahl entsprechen. Ändern Sie die vorhandenen Einstellungen nur. wenn das Modem nicht automatisch erkannt wird oder es spezielle Einstellungen für die Datenübertragung benötigt. Sie können diese aber auch in der Bedienungsanleitung der Telefonanlage finden.Abbildung 18. müssen Sie ggf. Schließen Sie das Dialogfeld mit OK. Legen Sie unter Details die Baudrate und die Zeichenketten zur Modeminitialisierung fest. Letztere Option sollte nicht verwendet werden. Um die Steuerung des Modems an den normalen Benutzer ohne root-Berechtigungen zu delegieren. Geben Sie unter Regulärer Ausdruck für Vorwahl zur Amtsholung einen regulären Ausdruck an. Wenn dieses Feld leer ist. der Lautsprecher eingeschaltet und der Wählton abgewartet werden soll. Grundlegendes zu Netzwerken 367 . wenn Ihr Modem an einer Telefonanlage angeschlossen ist. Dies ist vor allem bei ISDN-Terminaladaptern der Fall. Zudem können Sie festlegen. ob Tonoder Impulswahl verwendet. eine Vorwahl für die Amtsholung eingeben. Dies ist in der Regel die Null.

wenn Sie eine Verbindung herstellen. nach welchem Zeitraum der Netzwerkinaktivität die Modemverbindung automatisch getrennt wird. Dazu gehören ein Name für die Einwahlverbindung und den ISP sowie die vom ISP zur Verfügung gestellten Benutzerund Kennwortdaten für die Anmeldung. h. DNS automatisch abrufen Wenn der Provider nach dem Herstellen der Verbindung seinen DNS-Server nicht überträgt. in dem Sie die Daten Ihres ISPs eingeben können. Eingabeaufforderungen vom ISP-Server werden ignoriert. Sie können auch auf Neu klicken. Idle-Time-Out (Sekunden) Mit dieser Option legen Sie fest. um ein Dialogfeld zu öffnen.aktivieren Sie Land. Während Verbindung DNS ändern Diese Option ist standardmäßig aktiviert. Aktivieren Sie Immer Passwort abfragen. um den Verbindungsaufbau zu erleichtern. IP-Details Diese Option öffnet das Dialogfeld für die Adresskonfiguration. müssen Sie mindestens einen Namenserver angeben. die Adresse des Namenservers wird bei jeder Verbindung mit dem Internet automatisch aktualisiert. d. 368 Referenz . Wenn Ihr ISP Ihrem Host keine dynamische IP-Adresse zuweist. Lassen Sie die Option Standard-Route aktiviert und schließen Sie das Dialogfeld mit OK. damit immer eine Passwortabfrage erfolgt. Ignoranz-Modus Diese Option ist standardmäßig aktiviert. deaktivieren Sie diese Option und geben Sie die DNS-Daten manuell ein. Im letzten Dialogfeld können Sie zusätzliche Verbindungsoptionen angeben: Dial-On-Demand Wenn Sie diese Option aktivieren. Diese Informationen erhalten Sie von Ihrem ISP. Externe Firewall-Schnittstelle und Firewall neu starten Mit diesen Optionen aktivieren Sie SUSEfirewall2 und sind für die Dauer der Internetverbindung vor Angriffen von außen geschützt. deaktivieren Sie die Option Dynamische IP-Adresse und geben Sie die lokale IP-Adresse des Hosts und anschließend die entfernte IP-Adresse ein.

Geben Sie dann noch die Ortsnetzkennzahl und ggf. Theoretisch können Sie mehrere Schnittstellen einrichten. Schließen Sie dieses Dialogfeld mit Beenden.3 ISDN Dieses Modul ermöglicht die Konfiguration einer oder mehrerer ISDN-Karten in Ihrem System. 18. Die entsprechende Landeskennung wird im Feld daneben angezeigt. die Vorwahl zur Amtsholung ein.Durch Auswahl von Weiter gelangen Sie zum ursprünglichen Dialogfeld zurück.5. im Normalfall ist dies aber nicht notwendig. Die nachfolgenden Dialogfelder dienen dann dem Festlegen der verschiedenen ISDNOptionen für den ordnungsgemäßen Betrieb der Karte. da Sie für eine Schnittstelle mehrere Provider einrichten können. das zu verwendende Protokoll. 369) dargestellt ist. Für die USA gilt NI1.5 ISDN-Konfiguration Wählen Sie im nächsten Dialogfeld. aber für ältere oder größere Telefonanlagen wählen Sie 1TR6. Wenn YaST Ihre ISDN-Karte nicht erkennt. Wählen Sie das Land in dem dafür vorgesehenen Feld aus. Grundlegendes zu Netzwerken 369 . das in Abbildung 18. wählen Sie sie manuell aus. Der Standard ist Euro-ISDN (EDSS1).4. Abbildung 18. „ISDN-Konfiguration“ (S. in dem eine Zusammenfassung der Modemkonfiguration angezeigt wird.

nachdem das Gerät eingesteckt wurde. dass Sie den ISDN-Treiber als root mit dem Befehl rcisdn start laden. Falls hot-plugged wird für PCMCIA. dass der ISDN-Treiber bei jedem Systemstart initialisiert wird. Sollten Sie eine falsche Nummer 370 Referenz . die Sie unter Eigene Telefonnummer eingeben.oder USB-Geräte verwendet. Schnittstellen können in den Betriebsarten SyncPPP oder RawIP angelegt werden. Multiple Subscriber Numbers). Eine dieser MSNs muss hier eingegeben werden. allerdings ohne Ortsnetzkennzahl. Diese Option lädt den Treiber. Im nächsten Dialogfeld können Sie den Schnittstellentyp für die ISDN-Karte angeben und weitere ISPs zu einer vorhandenen Schnittstelle hinzufügen. Auf Wunsch können (auch) bis zu zehn Rufnummern zur Verfügung gestellt werden. Die meisten ISPs verwenden jedoch den SyncPPP-Modus. ist vom jeweiligen Anschlussszenario abhängig: ISDN-Karte direkt an der Telefondose Eine standardmäßige ISDN-Leitung bietet Ihnen drei Rufnummern (sogenannte MSNs.6 Konfiguration der ISDN-Schnittstelle Die Nummer. klicken Sie auf OK. der im Folgenden beschrieben wird.Startmodus legt fest. wie die ISDN-Schnittstelle gestartet werden soll: Bei Systemstart bewirkt. Manuell erfordert. Wenn Sie alle Einstellungen vorgenommen haben. Abbildung 18.

Für die Konfiguration unter Linux ist die Eingabe der letzten drei Stellen der EAZ in der Regel ausreichend. Wenn die Verbindung vor der nächsten zu zahlenden Gebühreneinheit getrennt werden soll. Um dem normalen Benutzer ohne Administratorberechtigung das Aktivieren oder Deaktivieren der Schnittstelle zu ermöglichen. 2. Anderenfalls tragen Sie gemäß den Angaben Ihres Providers die lokale IP-Adresse Ihres Rechners sowie die entfernte IP-Adresse in die dafür vorgesehenen Felder ein. Details öffnet ein Dialogfeld. Weitere Informationen dazu entnehmen Sie bitte der Dokumentation Ihrer Telefonanlage. sofern für diese der Zugriff nach außen freigeschaltet ist. Wenn Ihr Provider Ihnen keine statische IP-Adresse zugewiesen hat. Größere Telefonanlagen (z. Im Notfall probieren Sie die Ziffern 1 bis 9. dass jeweils nur eine Schnittstelle Grundlegendes zu Netzwerken 371 . Diese Telefonanlagen haben einen internen S0-Bus und verwenden für die angeschlossenen Geräte interne Rufnummern. ISDN-Karte an einer Telefonanlage Auch hier kann die Konfiguration je nach installierten Komponenten variieren: 1. Für die Angabe der MSN verwenden Sie eine der internen Rufnummern. Eine der möglichen MSNs Ihrer Telefonanlage sollte funktionieren.eintragen. Beachten Sie. Kleinere Telefonanlagen für den Hausgebrauch verwenden für interne Anrufe in der Regel das Euro-ISDN-Protokoll (EDSS1). Soll die anzulegende Schnittstelle als Standard-Route ins Internet dienen. indem Sie Externe Firewall-Schnittstelle und Firewall neu starten auswählen. Sie können SuSEfirewall2 für die Verbindung aktivieren. Dies funktioniert unter Umständen jedoch nicht mit jedem ISP. wählen Sie Dynamische IP-Adresse. in Unternehmen) verwenden für die internen Anschlüsse das Protokoll 1TR6. Im Notfall funktioniert eventuell auch eine einzelne Null. B. aktivieren Sie Standard-Route. Die MSN heißt hier EAZ und ist üblicherweise die Durchwahl. wird Ihr Netzbetreiber die erste Ihrem ISDN-Anschluss zugeordnete MSN verwenden. wählen Sie Benutzergesteuert. Durch Auswahl der entsprechenden Option können Sie auch die Kanalbündelung (Multilink-PPP) aktivieren. Schließen Sie das Dialogfeld Details mit OK. Im nächsten Dialogfeld legen Sie die Einstellungen für die Vergabe der IP-Adressen fest. aktivieren Sie ChargeHUP. das für die Implementierung komplexerer Verbindungsszenarien ausgelegt und aus diesem Grund für normale Heimbenutzer nicht relevant ist.

ist es nicht ungewöhnlich. dass der Zugriff auf das Internet über TV-Kabelnetzwerke erfolgt. Bei den in der Liste aufgeführten ISPs handelt es sich um Call-By-Call-Provider. Um auf einer Einzelplatz-Arbeitsstation Dial-On-Demand verwenden zu können. h. YaST zeigt eine Zusammenfassung der konfigurierten Schnittstellen an. Die Telefonnummer darf keine Leerzeichen oder Kommas enthalten. Ferner können Sie festlegen. z. beim Verbindungsaufbau wird die IP-Adresse eines Namenservers übergeben. das auf der einen Seite an die TV-Kabelbuchse und auf der anderen Seite (mit einem 10Base-TG Twisted-Pair-Kabel) an die Netzwerkkarte des Computers angeschlossen wird. Der TV-Kabel-Abonnent erhält in der Regel ein Modem.168. Wählen Sie beim Konfigurieren der Netzwerkkarte je nach Anweisungen Ihres ISPs entweder Automatische Adressenkonfiguration (mit DHCP) oder Konfiguration der statischen Adresse.22.99 angeben. Wenn Ihr ISP keine dynamischen DNS-Namen unterstützt. falls in der Zwischenzeit kein Datenaustausch stattgefunden hat. Wählen Sie anschließend Weiter. in Österreich und in den USA. wählen Sie Neu.4. in dem Sie alle Details zu Ihrem ISP eingeben können.4 Kabelmodem In einigen Ländern. das Sie von Ihrem ISP erhalten haben. Dadurch wird das Dialogfeld ProviderParameter geöffnet. Schließen Sie das Dialogfeld mit Weiter. Bei einer Einzelplatz-Arbeitsstation müssen Sie dennoch eine Platzhalteradresse wie 192. B. Im folgenden Dialogfeld können Sie Ihr Land angeben und einen ISP wählen. Wählen Sie zum Aktivieren dieser Einstellungen Beenden. Die meisten Provider unterstützen heute die dynamische DNS-Vergabe. Die meisten Provider verwenden heute DHCP. Das Kabelmodem stellt dann eine dedizierte Internetverbindung mit einer statischen IP-Adresse zur Verfügung. Eine statische IPAdresse ist oft Teil eines speziellen Firmenkontos. Bestätigen Sie die Einstellungen mit Weiter. Geben Sie dann den Benutzernamen und das Passwort ein. 372 Referenz . tragen Sie die IP-Adressen der Namenserver des ISPs ein. nach wie vielen Sekunden die Verbindung automatisch getrennt werden soll. 18. Wenn Ihr ISP in der Liste nicht aufgeführt ist. müssen Sie auf jeden Fall den Namenserver (DNS-Server) angeben. den bzw. d.pro System als Standard-Route in Frage kommt.

4. TIPP Die Werte in den Feldern IP-Adresse und Subnetzmaske sind lediglich Platzhalter. 192. „Konfigurieren der Netzwerkkarte mit YaST“ (S.5 DSL Wählen Sie zum Konfigurieren des DSL-Geräts das YaST-Modul DSL unter Netzwerkgeräte aus. Falls dies nicht schon geschehen ist.0 ein. z. in denen Sie die Parameter des DSL-Zugangs basierend auf den folgenden Protokollen festlegen können: • PPP über Ethernet (PPPoE) • PPP über ATM (PPPoATM) • CAPI für ADSL (Fritz-Karten) • Tunnel-Protokoll für Point-to-Point (PPTP) .1. Geben Sie stattdessen eine statische Dummy-Adresse für die Schnittstelle ein.Österreich Beachten Sie bitte. lassen Sie das Feld Standard-Gateway leer. Geben Sie unter Subnetzmaske 255. B. dass die Konfiguration Ihres DSL-Zugangs mit PPPoE und PPTP eine korrekte Konfiguration der Netzwerkkarte voraussetzt.1.168.22.18.255. 363)) auswählen.255. Deshalb dürfen Sie auch nicht die Option Automatische Adressenkonfiguration (mit DHCP) aktivieren.4. indem Sie Netzwerkkarten konfigurieren (siehe Abschnitt 18. konfigurieren Sie zunächst die Karte. Dieses YaST-Modul besteht aus mehreren Dialogfeldern. Sie haben für den Verbindungsaufbau mit DSL keine Bedeutung und werden nur zur Initialisierung der Netzwerkkarte benötigt. aber nicht mit dem DHCP-Protokoll. Wenn Sie eine Einzelplatz-Arbeitsstation konfigurieren. Die automatische IP-Adressvergabe erfolgt bei DSL zwar automatisch. Grundlegendes zu Netzwerken 373 .

müssen Sie auf jeden Fall den Namenserver (DNS-Server) angeben. Klicken Sie auf Benutzergesteuert.168. tragen Sie die IP-Adressen der Namenserver des ISPs ein. um dem normalen Benutzer ohne root-Berechtigungen das Aktivieren und Deaktivieren der Schnittstelle mit KInternet zu ermöglichen.99 angeben. 374)) wählen Sie zunächst den PPP-Modus und die Ethernetkarte.Abbildung 18. „DSL-Konfiguration“ (S. Geben Sie anschließend unter Geräte-Aktivierung an.7. 374 Referenz .7 DSL-Konfiguration Zu Beginn der DSL-Konfiguration (siehe Abbildung 18. Bei einer Einzelplatz-Arbeitsstation müssen Sie jedoch eine Platzhalteradresse wie 192. mit der das DSL-Modem verbunden ist (in den meisten Fällen ist dies eth0). Die meisten Provider unterstützen heute die dynamische DNS-Vergabe. Wenn Ihr ISP keine dynamische DNS-Namen unterstützt.22. Weitere Informationen zu den verfügbaren Optionen erhalten Sie in der ausführlichen Hilfe in den einzelnen Dialogfeldern. ob die DSL-Verbindung schon beim Booten des Systems gestartet werden soll. Um auf einer Einzelplatz-Arbeitsstation Dial-On-Demand verwenden zu können. d. beim Verbindungsaufbau wird die IP-Adresse eines Namenservers übergeben. Die Inhalte der danach folgenden Dialogfelder der DSL-Konfiguration hängen stark von den bis jetzt festgelegten Optionen ab und werden in den folgenden Abschnitten daher nur kurz angesprochen. In diesem Dialogfeld können Sie außerdem Ihr Land und einen der dort ansässigen ISPs auswählen. h.

nach welchem Zeitraum der Netzwerkinaktivität die Verbindung automatisch getrennt wird. In den folgenden Fällen ist NetworkManager ungeeignet: • Ihr Computer hat eine statische Adresse • Sie möchten für eine Schnittstelle mehrere Einwahlanbieter verwenden • Sie möchten Ihre WLAN-Verbindung mit WPA-EAP verschlüsseln Grundlegendes zu Netzwerken 375 . Die Konfiguration von T-DSL erfolgt ähnlich wie die DSL-Konfiguration. NetworkManager stellt automatisch Verbindungen mit den ihm bekannten WLAN-Netzwerken her. Bei zwei oder gar mehreren Verbindungsmöglichkeiten stellt NetworkManager die Verbindung zum schnelleren Netzwerk her.Idle-Timeout (Sekunden) definiert. brauchen Sie keine Gedanken mehr an die Konfiguration von Netzwerkschnittstellen und den Wechsel zwischen Netzwerken zu verschwenden. Diese Informationen finden Sie in den T-DSLAnmeldeunterlagen. die für T-DSL erforderlich sind: die Anschlusskennung. Wenn Dial-On-Demand deaktiviert ist. Hier sind Werte zwischen 60 und 300 Sekunden empfehlenswert. wenn die Netzwerkeinstellungen durch SCPM-Profile geändert werden. kann es hilfreich sein. In diesem Dialogfeld geben Sie einige zusätzliche Informationen ein. die Benutzerkennung und Ihr Passwort. 18. Durch Auswahl von T-Online als Provider gelangen Sie in das YaST-Konfigurationsdialogfeld für T-DSL. müssen Sie die Netzwerkressource in der SCPM-Konfiguration deaktivieren. Wenn Sie viel unterwegs sind und NetworkManager verwenden.5 Verwalten der Netzwerkverbindungen mit NetworkManager NetworkManager ist die ideale Lösung für eine mobile Arbeitsstation. Möchten Sie SCPM und NetworkManager zur gleichen Zeit verwenden. das Zeitlimit auf Null zu setzen. um das automatische Trennen der Verbindung zu vermeiden. die T-Online-Nummer. ANMERKUNG: NetworkManager und SCPM Verwenden Sie NetworkManager nicht gemeinsam mit SCPM.

wird das KNetworkManagerMenü mit verschiedenen Befehlen für die Verwaltung der Netzwerkverbindungen geöffnet.1 Steuern von NetworkManager NetworkManager aktivieren Sie im YaST-Modul Ihres Netzwerkgeräts. Wählen 376 Referenz . Wenn Sie mit der rechten Maustaste auf das Symbol klicken. starten Sie es mit dem Befehl knetworkmanager.5. Ein passendes Applet sollte automatisch mit der Desktopumgebung gestartet werden. werden von NetworkManager automatisch abgefragt. die die standardmäßige Kontrollleiste unterstützen. KNetworkManager wählt automatisch das beste verfügbare Netzwerk aus. Falls es nicht ausgeführt wird. kann aber nur automatisch eine Verbindung zu einem bekannten Netzwerk herstellen. Wenn Sie mit dem Cursor auf diese zeigen. wählen Sie es im Menü aus. Da für NetworkManager keine Standardnetzwerkkonfiguration erforderlich ist. Verschlüsselte drahtlose Netzwerke sind mit einem blauen Schlosssymbol gekennzeichnet. Sie können auch in anderen grafischen Umgebungen verwendet werden. wird ein blaues Globussymbol in der Kontrollleiste angezeigt. Um eine Verbindung mit einem verschlüsselten Netzwerk herzustellen. wird die YaST-Konfiguration deaktiviert. Wenn es ausgeführt wird. Sowohl KDE also auch GNOME verfügen über eigene Applets für NetworkManager. Das KNetworkManager-Applet KNetworkManager ist ein KDE-Applet für die Steuerung von NetworkManager. sowohl für verkabelte als auch für drahtlose Geräte.oder DNS-Server) 18. Vom Netzwerk angeforderte Informationen. aber ihre Schnittstellen sind verschieden. Die Signalstärke der drahtlosen Netzwerke wird ebenfalls im Menü angezeigt. wie der Name. Das Applet wird dann als Symbol in der Kontrollleiste angezeigt.• Ihr Computer ist ein Netzwerk-Router • Ihr Computer stellt Netzwerkdienste für andere Computer in Ihrem Netzwerk bereit (es handelt sich zum Beispiel um einen DHCP. Die zurzeit verwendete Verbindung ist im Menü aktiviert. werden Details angezeigt. das Passwort oder der Verschlüsselungsschlüssel. Für die erste Verbindung mit einem Netzwerk müssen Sie daher das NetworkManager-Applet verwenden. Das Menü enthält die verfügbaren Netzwerkverbindungen. Die Funktionen beider Applets sind ähnlich.

Um drahtlose Netzwerkverbindungen zu deaktivieren. hängt vom Status der Netzwerkverbindung ab. Geben Sie in dem daraufhin angezeigten Dialogfeld den ESSID ein und legen Sie gegebenenfalls die Verschlüsselungsparameter fest. Falls es nicht ausgeführt wird. Um auf Einwahlverbindungen zuzugreifen. Hier können Sie eine neue Einwahlverbindung definieren. Verschlüsselte drahtlose Netzwerke sind mit einem blauen Schildsymbol gekennzeichnet. wählen Sie Einwahlverbindungen. Einwahlverbindungen konfigurieren öffnet YaST. das seinen ESSID (Service Set Identifier) nicht sendet und demzufolge nicht automatisch erkannt werden kann. wählen Sie Optionen → Drahtlose Netzwerke deaktivieren im KNetworkManager-Menü. bis eine Erklärung angezeigt wird. Wenn Sie nicht sicher sind. Um eine Verbindung mit einem Netzwerk herzustellen. Um eine Verbindung mit einem verschlüsselten Netzwerk herzustellen. wählen Sie Optionen → In Online-Modus wechseln. wählen Sie Optionen → In OfflineModus wechseln im KNetworkManager-Menü aus. Um drahtlose Verbindungen erneut zu aktivieren. starten Sie es mit dem Befehl nm-applet. wählen Sie Verbindung zu anderem drahtlosen Netzwerk herstellen. Das Aktivieren der Netzwerke nimmt einige Sekunden in Anspruch. starten Sie die Verbindung durch Klicken auf die zu verwendende Verbindung. Wenn es ausgeführt wird. zeigen Sie mit dem Cursor darauf. Die zurzeit verwendete Verbindung ist im Menü aktiviert. wählen Sie Optionen → Drahtlose Netzwerke aktivieren. Wenn bereits Einwahlverbindungen definiert wurden. Das GNOME-NetworkManager-Applet GNOME verfügt zudem über sein eigenes Applet für NetworkManager. und geben Sie den passenden Passwortsatz oder Schlüssel ein. was das Symbol bedeutet. Klicken Sie mit der linken Maustaste auf das Applet-Symbol. wählen Sie es im Menü aus. Um die Verbindung wieder zu aktivieren. Um eine aktive Netzwerkverbindung zu deaktivieren. Grundlegendes zu Netzwerken 377 . um ein Menü mit verfügbaren Netzwerken anzuzeigen. Wählen Sie im nun geöffneten Dialogfeld den Typ der Verschlüsselung. den das Netzwerk verwendet und geben Sie den passenden Passwortsatz oder Schlüssel ein. Wie das Symbol aussieht.Sie im nun geöffneten Dialogfeld den Typ der Verschlüsselung. den das Netzwerk verwendet. Die Siganalstärke der drahtlosen Netzwerke wird ebenfalls im Menü angezeigt. wird ein Symbol in der Kontrollleiste angezeigt.

2 Weitere Informationen Weitere Informationen über NetworkManager und d-bus erhalten Sie auf den folgenden Websites bzw. Alle integrierten Netzwerkkarten und Hotplug-Netzwerkkarten (PCMCIA. klicken Sie mit der rechten Maustaste auf das Applet-Symbol und deaktivieren Sie die Option Drahtlose Netzwerke aktivieren.6 Manuelle Netzwerkkonfiguration Die manuelle Konfiguration der Netzwerksoftware sollte immer die letzte Alternative sein. B. das seinen ESSID (Service Set Identifier) nicht sendet und demzufolge nicht automatisch erkannt werden kann. Um Netzwerkverbindungen zu deaktivieren. klicken Sie mit der linken Maustaste auf das Symbol und wählen Sie Verbindung zu anderem drahtlosen Netzwerk herstellen. IPAdresse und Hardwareadresse) abzurufen. Die folgenden Hintergrundinformationen zur Netzwerkkonfiguration können Ihnen jedoch auch bei der Arbeit mit YaST behilflich sein. Das System erkennt 378 Referenz . in den folgenden Verzeichnissen: • http://www. klicken Sie mit der rechten Maustaste auf das Applet-Symbol und deaktivieren Sie die Option Enable Networking (Netzwerk aktivieren). YaST zu benutzen.5. Um drahtlose Netzwerkverbindungen zu deaktivieren.org/Software/dbus (Projektseite von dbus) • /usr/share/doc/packages/NetworkManager 18.org/projects/NetworkManager/ (Projektseite von NetworkManager) • http://www.gnome. Geben Sie in dem daraufhin angezeigten Dialogfeld den ESSID ein und legen Sie gegebenenfalls die Verschlüsselungsparameter fest. USB und einige PCI-Karten) werden über Hotplug erkannt und konfiguriert.Um eine Verbindung mit einem Netzwerk herzustellen. verwendete Schnittstelle.freedesktop. Wir empfehlen. klicken Sie mit der rechten Maustaste auf das Applet-Symbol und wählen Sie Verbindungsinformationen im Menü aus. Um Informationen zur aktuellen Verbindung (z. 18.

die an einen USB-Anschluss angeschlossen sind. wählen Sie anstelle einer bestimmten Karte weniger spezifische Konfigurationsnamen. Das Einstecken eines Geräts löst ein Hotplug-Ereignis aus. Falls eine von mehreren Netzwerkkarten ausfallen sollte.0 oder wlan-id-00:05:4e:42:31:7a (MAC-Adresse) lauten. dass sie die Geräte und die damit verknüpften Schnittstellen beschreiben. wichtig. So würde wlan-bus-usb beispielsweise WLAN-Karten zugeordnet werden. Die Initialisierungsreihenfolge ist für die Zuordnung der Namen entscheidend.und Produkt-ID) lauten.. Der Konfigurationsname für eine PCI-Karte kann beispielsweise bus-pci-0000:02:01. kann diese Zuordnung nicht mehr in der Datei /etc/modprobe. Im neuen Konzept würden die Aliaseinträge in dieser Datei Probleme verursachen. der gerätesspezifischen ID oder des Schnittstellennamens. Der Name der zugeordneten Schnittstelle kann bus-pci-0000:02:01. Für echte Hotplug-fähige Karten ist die Reihenfolge. Um eine flexible Konfiguration zu ermöglichen. Grundlegendes zu Netzwerken 379 .oder ifcfg. Wenn die Netzwerkkarte als neue Netzwerkschnittstelle initialisiert wird. Der Kernel nummeriert die Schnittstellennamen gemäß der zeitlichen Reihenfolge ihrer Registrierung. wird die Nummerierung aller danach initialisierten Karten verschoben. generiert der Kernel ein weiteres Hotplug-Ereignis.conf erfolgen.0 (PCI-Steckplatz) oder vpid-0x8086-0x1014-0x0549 (Hersteller. wurde die Konfiguration der Geräte (Hardware) und der Schnittstellen voneinander getrennt und die Zuordnung der Konfigurationen zu Geräten und Schnittstellen erfolgt nicht mehr auf Basis der Schnittstellennamen. Dieses Hotplug-Ereignis löst dann die Initialisierung des Geräts mithilfe des Skripts hwup aus. Die Namen der Konfigurationen werden so zugewiesen. Die Schnittstellenkonfigurationen befinden sich im Verzeichnis /etc/sysconfig/network/ifcfg-*. in der die Geräte angeschlossen werden. Da bei der früheren Zuordnung von Treibern zu Schnittstellennamen statische Schnittstellennamen erforderlich waren. So würde bus-pcmcia beispielsweise für alle PCMCIA-Karten verwendet werden. Die Gerätekonfigurationen befinden sich im Verzeichnis /etc/ sysconfig/hardware/hwcfg-*. Um eine bestimmte Netzwerkkonfiguration einer Karte eines bestimmten Typs zuzuordnen (von der immer nur jeweils eine eingesetzt ist). die Einträge hinter hwcfg. Die Konfigurationsnamen – d.– beschreiben die Geräte anhand des Steckplatzes.eine Netzwerkkarte auf zwei unterschiedliche Weisen: erstens als physisches Gerät und zweitens als Schnittstelle. Die Namen können andererseits auch durch einen vorangestellten Schnittstellentyp eingeschränkt werden. h. das das Einrichten der Schnittstelle mit ifup auslöst.

Stellen Sie sicher. Die Suche nach der am besten geeigneten Konfiguration erfolgt mit dem Befehl getcfg. am besten beschreibt. wlan* usw. den der Kernel automatisch zuweisen würde. WICHTIG: Verwendung persistenter Schnittstellennamen Die Verwendung persistenter Schnittstellennamen wurde noch nicht für alle Bereiche getestet. h. das die Schnittstelle zur Verfügung stellt. • Persistente Schnittstellennamen werden automatisch jeder Schnittstelle zugewiesen. der Treiber der Netzwerkkarte muss neu geladen oder hwup Gerätebeschreibung muss ausgeführt werden. die eine Schnittstelle oder das Gerät.Das System verwendet immer die Konfiguration. Mit der beschriebenen Methode wird eine Netzwerkschnittstelle auch dann mit der richtigen Konfiguration eingestellt. Erlaubte Zeichen in Schnittstellennamen sind auf [a-zA-Z0-9] beschränkt. den zuverlässigen Zugriff auf die Schnittstelle einer bestimmten Netzwerkkarte sicherzustellen: • getcfg-interface Konfigurationsname gibt den Namen der zugeordneten Netzwerkschnittstelle zurück.. Verwenden Sie stattdessen net* oder beschreibende Namen wie extern. frei ausgewählte Schnittstellennamen handzuhaben. Firewall. nicht zulässig. dass jeder Schnittstellenname nur einmal benutzt wird. anstelle des Schnittstellennamens eingegeben werden. 380 Referenz . Sie können diese Ihren Anforderungen anpassen. Ein persistenter Name kann einer Schnittstelle nur direkt nach deren Registrierung zugewiesen werden. Weitere Informationen zur Spezifikation von Konfigurationsnamen finden Sie auf der Manualpage für den Befehl getcfg. da Letzterer nicht persistent ist. DHCPD. B. wenn die Netzwerkgeräte nicht immer in derselben Reihenfolge initialisiert werden. z. Gehen Sie zum Erstellen von Schnittstellennamen vor wie in /etc/udev/rules. die für die Beschreibung eines Geräts verwendet werden können. Der Name der Schnittstelle ist jedoch weiter von der Initialisierungsreihenfolge abhängig.rules beschrieben. Es gibt zwei Möglichkeiten. Daher kann in einigen Konfigurationsdateien der Konfigurationsname. Routing oder eine virtuelle Netzwerkschnittstelle (Tunnel). intern oder dmz.d/30-net_persistent _names. Die Ausgabe von getcfg enthält alle Informationen. Daher sind einige Anwendungen möglicherweise nicht in der Lage. Aus diesem Grund sind eth*. Der Befehl rcnetwork restart reicht für diesen Zweck nicht aus. tr*. d. Der persistente Name pname muss sich jedoch von dem Namen unterscheiden.

um ein Gerät zu initialisieren.status} Die hw*-Skripts werden vom HotplugSubsystem ausgeführt. da es die Hardware nicht initialisiert. Auf diese Weise kann eine variierende Anzahl an Geräten mit einem vorhandenen Satz an Konfigurationen immer bestmöglich konfiguriert werden. Jetzt ist die Vorgehensweise genau umgekehrt. wann immer möglich. die Initialisierung rückgängig zu machen oder den Status eines Geräts abzufragen.ifup erfordert eine vorhandene Schnittstelle. Die Initialisierung der Hardware erfolgt über den Befehl hwup (wird von hotplug oder coldplug ausgeführt).5. getcfg kann zum Abfragen des Namens der Schnittstelle verwendet werden.5 Konfigurationsphase Hardware Skripts für die manuelle Netzwerkkonfiguration Befehl Funktion hw{up. Früher wurde die Hardware-Initialisierung durch den Befehl ifup Schnittstellenname ausgelöst. Tabelle 18.getcfg le Grundlegendes zu Netzwerken 381 . nach Hardware und Schnittstelle unterschieden. „Skripts für die manuelle Netzwerkkonfiguration“ (S. hotplug oder auto ist und der Dienst network gestartet wurde. Weitere Informationen hierzu finden Sie auf der Manualpage für den Befehl hwup. Tabelle 18. Weitere Informationen hierzu finden Sie auf der Manualpage für den Befehl getcfg. Bei der Initialisierung eines Geräts wird ifup automatisch für die neue Schnittstelle über hotplug ausgeführt und die Schnittstelle wird eingerichtet. Schnittstel. wenn der Startmodus onboot. 381) zeigt die wichtigsten an der Netzwerkkonfiguration beteiligten Skripts. die mit einem Konfigurationsnamen oder einer Hardwarebeschreibung verknüpft ist. Zuerst wird eine Hardwarekomponente initialisiert und anschließend werden alle anderen Aktionen ausgeführt.down. Die Skripts werden.

Weitere Informationen zu Hotplug und persistenten Gerätenamen finden Sie in Kapitel 12. das Kernelmodul. wenn coldplug gestartet wird. 273). B. Weitere Informationen hierzu finden Sie auf der Manualpage für den Befehl ifup.if{up.down. Gerätemanagement über dynamischen Kernel mithilfe von udev (S. /etc/syconfig/hardware/hwcfg-* Diese Dateien enthalten die Hardwarekonfigurationen der Netzwerkkarten und weiterer Geräte. Wenn nur eine einzelne allgemeine Einstellung nur für eine bestimmte Schnittstelle verwendet werden soll. /etc/sysconfig/network/ifcfg-* Diese Dateien enthalten die Konfigurationsdaten. Weitere Informationen hierzu finden Sie auf der Manualpage für den Befehl hwup. wireless und config in den ifcfg-*-Dateien verwendet werden. Sie enthalten die erforderlichen Parameter. Sie enthalten Informationen wie den Startmodus und die IP-Adresse. Mögliche Parameter sind auf der Manualpage für den Befehl ifup beschrieben. die spezifisch für eine Netzwerkschnittstelle sind. Die hwcfg-static-*-Konfigurationen werden unabhängig von der Hardware angewendet.status} Die if*-Skripts starten vorhandene le Netzwerkschnittstellen oder setzen den Status der angegebenen Schnittstelle zurück.6.Konfigurationsphase Befehl Funktion Schnittstel. z. 382 Referenz . können außerdem alle Variablen aus den Dateien dhcp. den Startmodus und Skriptverknüpfungen. 18.1 Konfigurationsdateien Dieser Abschnitt bietet einen Überblick über die Netzwerkkonfigurationsdateien und erklärt ihren Zweck sowie das verwendete Format.

Routen zu einem Host über ein Gateway sowie Routen zu einem Netzwerk. Diese Spalte kann die IP-Adresse eines Netzwerks oder Hosts bzw.0 0.255.0 204.0.51 192. Die Variablen in allen drei Konfigurationsdateien sind kommentiert und können auch in den ifcfg-*-Dateien verwendet werden.0. PPP.0 default 207. z. Sämtliche statische Routen.0 204.156. Die Maske 255. für die ein separates Routing erforderlich ist./etc/sysconfig/network/config.255.0. dhcp enthält DHCP-Einstellungen und wireless Einstellungen für Wireless-LAN-Karten.41 207.68.0.68.0 Device lo eth0 eth0 eth1 eth1 Das Routenziel steht in der ersten Spalte.0.255 gilt beispielsweise für einen Host hinter einem Gateway. ifdown und ifstatus. über das der Zugriff auf einen Host oder ein Netzwerk erfolgt.127. Grundlegendes zu Netzwerken 383 . dhcp. /etc/sysconfig/network/routes.oder Dummy-Geräte. wo sie mit einer höheren Priorität verarbeitet werden. B.255.156.ifroute-* Hier wird das statische Routing von TCP/IP-Paketen festgelegt. Die vierte Spalte ist nur für Netzwerke relevant.0.0 0.255. Die Einträge in der Routing-Konfigurationsdatei sehen wie folgt aus: # Destination # 127.255. können in die Datei /etc/sysconfig/network/routes eingegeben werden: Routen zu einem Host. Die zweite Spalte enthält das Standard-Gateway oder ein Gateway. die für die unterschiedlichen System-Tasks erforderlich sind.0. Die dritte Spalte enthält die Netzmaske für Netzwerke oder Hosts hinter einem Gateway. Ethernet-.45 207. ISDN-.0.0 255.255.255 255.255.145. Loopback-.0 Dummy/Gateway 0. In diese Spalte muss der Gerätename eingegeben werden. im Fall von erreichbaren Namenservern.51 Netmask 255.255.68.235.oder Hostnamen enthalten.0.127. den voll qualifizierten Netzwerk.168. wireless Die Datei config enthält allgemeine Einstellungen für das Verhalten von ifup. Ersetzen Sie * durch den Namen der Schnittstelle.0 255.255.235. Definieren Sie für jede Schnittstelle..0. eine zusätzliche Konfigurationsdatei: /etc/sysconfig/network/ifroute-*. die mit dem lokalen Host verbunden sind.

pcmcia und hotplug. geben Sie mehrere Zeilen ein.conf mit dem Skript modify_resolvconf. wie der automatische Änderungsmechanismus deaktiviert werden kann. wie /etc/resolv.5 /etc/resolv.168. pppd (wvdial). kann die ursprüngliche Datei mit modify_resolvconf wiederhergestellt werden.conf In dieser Datei wird die Domäne angegeben. enthält sie einen vordefinierten Kommentar mit Informationen zu dem Dienst. 384) zeigt. pcmcia und hotplug ändern die Datei /etc/resolv.conf mehrmals geändert wird. um sicherzustellen. Zudem wird beispielsweise nach einem Systemabsturz beim Booten des Systems ein Test ausgeführt. wenn dieser Umkehrvorgang in einer anderen Reihenfolge ausgeführt wird. Beispiel 18. Nicht benötigte Spalten sollten ein Minuszeichen . der sie geändert hat. Diese können auf saubere Weise auch dann wieder rückgängig gemacht werden. auf den der Zugriff erfolgt (Schlüsselwort nameserver).enthalten.conf von diesem Skript vorübergehend geändert wurde. indem die einzelnen search-Einträge angehängt werden. z. Wenn /etc/resolv. wobei jede Zeile mit nameserver beginnt.com # # We use sun (192. sind beispielsweise isdn. die diese Flexibilität möglicherweise benötigen.0. der nicht voll qualifiziert ist. „/etc/resolv . Wenn ein Dienst auf unnormale Weise beendet wurde. dhcp (dhcpcd und dhclient). Weitere Informationen hierzu finden Sie auf der Manualpage für den Befehl routes(5). an dem die ursprüngliche Datei gesichert wurde.20) as nameserver nameserver 192.conf # Our domain search example. Bei der Auflösung eines Namens.In einer (optionalen) fünften Spalte kann der Typ einer Route angegeben werden. einen solchen zu generieren. um zu 384 Referenz . zu der der Host gehört (Schlüsselwort search). Ebenfalls aufgeführt ist der Status des Namenservers.0. Wenn Sie mehrere Namenserver verwenden. Beispiel 18.conf aussehen könnte.5.20 Einige Dienste. B. wird versucht. dem Speicherort. sowie Informationen darüber. Dienste.conf“ (S. ipppd (isdn). als die Änderungen vorgenommen wurden. YaST trägt den angegebenen Namenserver in diese Datei ein. enthält die Datei die Änderungen in verschachtelter Form. /etc/resolv. Stellen Sie Kommentaren ein #-Zeichen voran.168. Wenn die Datei /etc/resolv. Es können mehrere Domänennamen angegeben werden. dass der Parser den Befehl korrekt interpretiert.

example.com sun 192. 385) gezeigt.ermitteln.conf geändert wurde.0. Siehe Beispiel 18. und warnt den Benutzer. wie in Beispiel 18. 385). Kommentaren wird immer das #-Zeichen vorangestellt.0 earth.0.6 /etc/hosts 127.conf vorhanden ist (z.7.168. müssen alle Hosts. Das Format ähnelt dem der hosts-Datei. YaST ermittelt mit dem Befehl modify_resolvconf check. d. Abgesehen davon verlässt sich YaST nicht auf modify _resolvconf.168. jedoch stehen hier die Netzwerknamen vor den Adressen. /etc/hosts In dieser Datei werden.0.0. h.7 /etc/networks loopback localnet 127.conf über YaST sind identisch mit allen anderen manuellen Änderungen. Beispiel 18. IPAdressen zu Hostnamen zugewiesen. ob eine unsaubere.1 localhost 192. durch einen Systemabsturz). hier aufgeführt sein. in welchem Fall die ursprüngliche (unveränderte) resolv. „/etc/hosts“ (S.0 192. Wenn kein Namenserver implementiert ist. B.conf wiederhergestellt wird. Geben Sie für jeden Host in die Datei eine Zeile ein.0. Die IP-Adresse muss am Anfang der Zeile stehen und die Einträge müssen durch Leerzeichen und Tabulatoren getrennt werden. ob resolv.6. geänderte resolv. Beispiel 18. die Auswirkungen der Änderung von resolv.example. die aus der IP-Adresse.0.0 Grundlegendes zu Netzwerken 385 . dem voll qualifizierten Hostnamen und dem Hostnamen besteht.168..com earth /etc/networks Hier werden Netzwerknamen in Netzwerkadressen umgesetzt. dass Änderungen nach dem Wiederherstellen der Datei verloren gehen.20 sun. für die IP-Verbindungen eingerichtet werden sollen. „/etc/networks“ (S. Die Änderungen sind in beiden Fällen permanent. Die von den genannten Diensten vorgenommenen Änderungen sind nur temporärer Natur.0.

die mit libc4 oder libc5 gelinkt sind.6 Parameter für /etc/host. „Parameter für /etc/host. order hosts. Netzwerknamen über die resolver-Bibliothek.conf wird in Beispiel 18. d. 387) gezeigt.conf Das Auflösen von Namen.8.6. Ein Beispiel für /etc/host. h.conf. ob ein in /etc/hosts eingegebener Host mehrere IP-Adressen haben kann. wenn in der Datei /etc/hosts nur Namen aus der lokalen Domäne stehen. „ /etc/host. Tabelle 18. Jeder Parameter muss in einer eigenen Zeile stehen. Diese Parameter beeinflussen das spoofing des Namenservers. Kommentare werden durch ein #-Zeichen eingeleitet.conf Legt fest. Weitere Informationen zu aktuellen glibc-Programmen finden Sie in den Einstellungen in /etc/nsswitch .bzw. haben aber weiter keinen Einfluss auf die Netzwerkkonfiguration. 386) aufgeführt. Diese Option ist dann von Nutzen.conf“ (S. bind nospoof on spoofalert on/off trim Domänenname 386 Referenz . das Übersetzen von Host. in welcher Reihenfolge die Dienste zum Auflösen eines Namens angesprochen werden sollen.conf “ (S. Die verfügbaren Parameter sind in Tabelle 18. Mögliche Argumente (getrennt durch Leerzeichen oder Kommas): hosts: Durchsuchen der Datei /etc/hosts bind: Greift auf einen Namenserver zu nis: Über NIS multi on/off Legt fest. Diese Datei wird nur für Programme verwendet. Der angegebene Domänenname wird vor dem Auflösen des Hostnamens von diesem abgeschnitten (insofern der Hostname diesen Domänennamen enthält). wird durch diese Datei gesteuert. diese aber auch mit angehängtem Domänennamen erkannt werden sollen./etc/host.

dass Anfragen über DNS an /etc/hosts (files) gehen (siehe Kapitel 20. 389) aufgelistet.7. in welcher Reihenfolge bestimmte Informationen abgefragt werden.9.conf wird festgelegt. Zusätzlich sind in Zukunft zudem automount.conf # We have named running order hosts bind # Allow multiple addrs multi on /etc/nsswitch. Der Eintrag unter der hosts-Datenbank bedeutet. 387) dargestellt.conf“ (S. Das Domain Name System (DNS) (S.0 wurde Name Service Switch (NSS) eingeführt. „Konfigurationsoptionen für NSS-„Datenbanken““ (S. Die Konfigurationsoptionen für NSS-Datenbanken sind in Tabelle 18. Kommentare werden durch ein #-Zeichen eingeleitet.conf verfügbare Datenbanken“ (S. „Über /etc/nsswitch. 399)). netmasks und publickey zu erwarten.8. In der Datei /etc/nsswitch. bootparams. Grundlegendes zu Netzwerken 387 .9 /etc/nsswitch.conf ist in Beispiel 18.conf(5) und in dem Dokument The GNU C Library Reference Manual.conf passwd: group: hosts: networks: services: protocols: netgroup: automount: compat compat files dns files dns db files db files files files nis Die über NSS verfügbaren „Datenbanken“ sind in Tabelle 18.Beispiel 18. „/etc/nsswitch. 388) aufgelistet. Weitere Informationen hierzu finden Sie auf der Manualpage für nsswitch.conf Mit der GNU C Library 2. Beispiel 18.8 /etc/host. Ein Beispiel für nsswitch.

die von getprotoent verwendet werden. Netzwerkprotokolle. Netzwerknamen und -adressen. Benutzerpasswörter. Im Netzwerk gültige Host. Weitere Informationen hierzu finden Sie auf der Manualpage für netgroup(5). Shadow-Passwörter der Benutzer. die von getpwent verwendet werden. Für Hostnamen und IP-Adressen. Weitere Informationen hierzu finden Sie auf der Manualpage für protocols(5).conf verfügbare Datenbanken Mail-Aliasse. die von getspnam verwendet werden. ethers group hosts netgroup networks passwd protocols rpc services shadow 388 Referenz . Weitere Informationen hierzu finden Sie auf der Manualpage für shadow(5). Weitere Informationen hierzu finden Sie auf der Manualpage passwd(5). die von getservent verwendet werden. die von sendmail implementiert werden. Ethernet-Adressen Für Benutzergruppen. Weitere Informationen hierzu finden Sie auch auf der Manualpage für den Befehl group. Remote Procedure Call-Namen und -Adressen.Tabelle 18. die von gethostbyname und ähnlichen Funktionen verwendet werden. Siehe man 5 aliases. Netzwerkdienste.und Benutzerlisten zum Steuern von Zugriffsrechten. die von getnetent verwendet werden.7 aliases Über /etc/nsswitch. die von getrpcbyname und ähnlichen Funktionen verwendet werden. die von getgrent verwendet werden.

Diese Datei wird von verschiedenen Skripts beim Booten des Computers gelesen. also nur der Hostname ohne den Domänennamen. sollten Sie einen DNS-Server für das Cachen einrichten. dass das lokale System keine Trust-Forward. in der der Hostname steht. bis ein neu angelegter lokaler Benutzer dem System bekannt ist. NIS und LDAP. Grundlegendes zu Netzwerken 389 .conf(5).conf Mithilfe dieser Datei wird nscd (Name Service Cache Daemon) konfiguriert. B. Statt nscd das Cachen der Namen zu übertragen. da der Mechanismus in nscd dazu führen würde. B. z. siehe auch Kapitel 21.Tabelle 18. Wenn das Caching für passwd aktiviert wird. 423) Nur bei hosts und networks als Erweiterung verwendbar Nur bei passwd. shadow und group als Erweiterung verwendbar nis. nisplus dns compat /etc/nscd. Arbeiten mit NIS (S. Standardmäßig werden die Systemeinträge von passwd und groups von nscd gecacht.und ReverseLookup-Tests mehr ausführen kann. hosts wird standardmäßig nicht gecacht. Weitere Informationen hierzu finden Sie auf den Manualpages nscd(8) und nscd. z.8 files db Konfigurationsoptionen für NSS-„Datenbanken“ Direkter Dateizugriff. Sie darf nur eine Zeile enthalten. /etc/aliases Zugriff über eine Datenbank NIS. da anderenfalls die Netzwerkverbindung für jeden Zugriff auf Namen oder Gruppen verwendet werden muss. Durch das Neustarten von nscd mit dem Befehl rcnscd restart kann diese Wartezeit verkürzt werden. dauert es in der Regel 15 Sekunden. /etc/HOSTNAME Hier steht der Name des Computers. Dies ist wichtig für die Leistung der Verzeichnisdienste.

18. sobald eine FTP-Verbindung initiiert wird.d/ portmap /etc/init. z. „Einige Start-Skripts für Netzwerkprogramme“ (S.d/ nfsserver /etc/init. Tabelle 18.d/ypserv Startet den NIS-Server. werden keine Netzwerkschnittstellen beim Einstecken über Hotplug implementiert. für einen NFS-Server. 390 Referenz . die beim Booten des Computers die Netzwerkprogramme starten.d/inetd /etc/init. Die Hardware muss bereits von /etc/init.2 Startup-Skripts Neben den beschriebenen Konfigurationsdateien gibt es noch verschiedene Skripts. 390) beschrieben. Startet den NFS-Server. Wenn der Dienst network nicht gestartet wurde.9 Einige Start-Skripts für Netzwerkprogramme Dieses Skript übernimmt die Konfiguration der Netzwerkschnittstellen. xinetd kann verwendet werden.d/coldplug (über Hotplug) initialisiert worden sein. Beispielsweise kann er vsftpd starten. Startet xinetd.d/ network /etc/init. Startet den Portmapper.d/ypbind Startet den NIS-Client. Einige der Skripts sind in Tabelle 18.d/ sendmail Steuert den sendmail-Prozess. der für einen RPC-Server benötigt wird. /etc/init. sobald das System in einen der Mehrbenutzer-Runlevel wechselt.9. B. /etc/init.6. Diese werden gestartet. um bei Bedarf Serverdienste auf dem System zur Verfügung zu stellen. /etc/init.

18. die Fernsteuerung. Wenn dieser Parameter auf yes (ja) gesetzt ist. An dieser Stelle kommt smpppd ins Spiel. die bei der Einwahl keine zusätzlichen Kosten verursacht. sollten auch die Parameter bind-address. B. muss diese Option auf yes (ja) gesetzt werden. Zum anderen stellt er den Benutzerprogrammen verschiedene Provider zur Verfügung und übermittelt Informationen über den aktuellen Status der Verbindung. auf dem smpppd lauscht. Der Port.7 smpppd als Einwählhelfer Die meisten Heimanwender besitzen keine gesonderte Leitung für das Internet. besteht die Möglichkeit. Manuelle Einstellungen sind nur notwendig. Zum einen programmiert er den jeweils erforderlichen pppd oder ipppd und steuert deren Einwählverhalten. Je nach Einwählart (ISDN oder DSL) wird die Verbindung von ipppd oder pppd gesteuert. Die wichtigsten Optionen dieser Konfigurationsdatei sind: open-inet-socket = yes|no Wenn smpppd über das Netzwerk gesteuert werden soll. Grundlegendes zu Netzwerken 391 . sondern wählen sich bei Bedarf ein. wenn Sie zusätzliche Funktionen von smpppd. Die Konfigurationsdatei von smpppd ist /etc/smpppd. starten Sie einfach den entsprechenden Daemon. dass standardmäßig keine Fernsteuerung möglich ist. eignet er sich für die Steuerung von Einwählverbindungen ins Internet von einer Arbeitsstation in einem privaten Subnetzwerk. Wenn das Internet-Gateway nicht der eigentliche Arbeitscomputer ist. Sie können die Einwählverbindung über ein KDE-Applet oder eine Befehlszeilen-Schnittstelle steuern. 18. z.7. die Einwählverbindung über einen Host im Netzwerk zu steuern.1 Konfigurieren von smpppd Die von smpppd bereitgestellten Verbindungen werden automatisch von YaST konfiguriert. Im Prinzip müssen nur diese Programme korrekt gestartet werden. Sofern Sie über eine Flatrate verfügen. Da der smpppdDienst auch über das Netzwerk gesteuert werden kann. host-range und password entsprechend eingestellt werden. um online zu sein.conf. Die eigentlichen Einwählprogramme KInternet und cinternet werden ebenfalls vorkonfiguriert. die in zwei Richtungen funktioniert. einrichten möchten. Sie ist so eingestellt. Der Dienst bietet den Hilfsprogrammen eine einheitliche Schnittstelle. ist 3185.

Da es lediglich ein reines Textpasswort ist. Die Frontends testen die Optionen in der hier angegebenen Reihenfolge. password = Passwort Mit der Vergabe eines Passworts wird der Client-Zugriff auf autorisierte Hosts beschränkt.conf(5).bind-address = IP Wenn ein Host mehrere IP-Adressen hat. die es bietet. bearbeiten Sie die Konfigurationsdatei /etc/smpppd-c. 18. Hosts. auf smpppd zuzugreifen. verwendet aber nicht die KDE-Bibliotheken. cinternet und qinternet kann sowohl ein lokaler als auch ein entfernter smpppd-Dienst gesteuert werden. deren IP-Adressen innerhalb dieses Bereichs liegen. Diese Datei enthält nur drei Optionen: sites = Liste der Sites Hier weisen Sie die Frontends an. das eine grafische Oberfläche bietet. sind alle Clients berechtigt.2 Konfigurieren von KInternet. können Sie mit dieser Einstellung festlegen. wo sie nach smpppd suchen sollen.7.conf manuell oder mithilfe von KInternet. slp-register = yes|no Mit diesem Parameter kann der smpppd-Dienst per SLP im Netzwerk bekannt gegeben werden. cinternet und qinternet für die Fernsteuerung Mit den Programmen KInternet. wird der Zugriff auf smpppd gewährt. qinternet ist im Grunde das Gleiche wie KInternet. sollte die Sicherheit. host-range = Anfangs-IP End-IP Der Parameter host-range definiert einen Netzbereich. nicht überbewertet werden. werden abgewiesen. sodass es ohne KDE verwendet werden kann und separat installiert werden muss. die außerhalb dieses Bereichs liegen. Alle Hosts. Weitere Informationen über smpppd finden Sie in den Manualpages zu smpppd(8) und smpppd. Wenn Sie diese Dienstprogramme zum Einsatz mit einem entfernten smpppd-Dienst vorbereiten möchten. über welche IP-Adresse smpppd Verbindungen akzeptiert. Die Option local weist 392 Referenz . cinternet ist die Befehlszeilenvariante von KInternet. Wenn kein Passwort vergeben wird.

Sollten Sie an dieser Stelle Schwierigkeiten haben. auf dem smpppd läuft. z. Die Verbindung wird nach den in der Datei config-file unter server spezifizierten Einstellungen hergestellt. können Sie jetzt versuchen. finden Sie weitere Informationen in den Manualpages zu smpppd-c. slp weist die Frontends an. password = Passwort Geben Sie das Passwort für smpppd ein. Grundlegendes zu Netzwerken 393 . Sofern der smpppd-Dienst aktiv ist.conf(5) und cinternet(8). mit dem Befehl cinternet --verbose --interface-list. B. auf ihn zuzugreifen.den Verbindungsaufbau dem lokalen smpppd-Dienst zu und gateway verweist auf einen smpppd-Dienst auf dem Gateway. server = Server Geben Sie hier den Host an. sich mit einem per SLP gefundenen smpppd-Dienst zu verbinden.

.

Nutzen Sie SLP. SLP teilt allen Clients im lokalen Netzwerk die Verfügbarkeit ausgewählter Dienste mit. YaST und Konqueror verfügen beide über SLP-fähige Frontends.1 Registrieren eigener Dienste Viele Anwendungen unter SUSE Linux verfügen durch die libslp-Bibliothek bereits über eine integrierte SLP-Unterstützung. Dateiserver oder Druckserver auf Ihrem SUSE Linux-System zur Verfügung zu stellen.reg. Dies ist ein Beispiel einer solchen Datei für die Registrierung eines Scannerdiensts: SLP-Dienste im Netzwerk 395 . können Sie ihn mit einer der folgenden Methoden per SLP verfügbar machen: Statische Registrierung über /etc/slp. Anwendungen mit SLP-Unterstützung können diese Informationen verarbeiten und können automatisch konfiguriert werden.SLP-Dienste im Netzwerk Das Service Location Protocol (SLP) wurde entwickelt. YOU-Server.d Legen Sie für jeden neuen Dienst eine separate Registrierungsdatei an. 19 SUSE Linux unterstützt die Installation von per SLP bekannt gegebenen Installationsquellen und beinhaltet viele Systemdienste mit integrierter Unterstützung für SLP. um die Konfiguration vernetzter Clients innerhalb eines lokalen Netzwerks zu vereinfachen. Falls ein Dienst ohne SLP-Unterstützung kompiliert wurde. um vernetzten Clients zentrale Funktionen wie Installationsserver. 19. Zur Konfiguration eines Netzwerk-Clients inklusive aller erforderlichen Dienste benötigt der Administrator traditionell detailliertes Wissen über die im Netzwerk verfügbaren Server.

auf dem der entsprechende Dienst gefunden werden kann. 19.reg Der einzige Unterschied zum Verfahren mit /etc/slp. Abgetrennt durch einen Doppelpunkt folgt nun der Name des TCP-Ports. Mit 65535 werden alle Einschränkungen aufgehoben.65535 watch-port-tcp=6566 description=SANE scanner daemon Die wichtigste Zeile dieser Datei ist die Dienst-URL.2 SLP-Frontends in SUSE Linux SUSE Linux enthält mehrere Frontends. Die Registrierungsdatei enthält außerdem die beiden Variablen watch-tcp-port und description. in der der Dienst angekündigt werden soll. Dynamische Registrierung über slptool Verwenden Sie zur SLP-Registrierung eines Diensts aus proprietären Skripts das Befehlszeilen-Frontend slptool. ob der entsprechende Dienst aktiv ist. $HOSTNAME wird automatisch durch den vollständigen Hostnamen ersetzt. Sie enthält den Diensttyp (scanner. Statische Registrierung über /etc/slp. und die Gültigkeitsdauer der Registrierung in Sekunden.## Register a saned service on this system ## en means english language ## 65535 disables the timeout.sane://$HOSTNAME:6566. Die zweite Variable enthält eine genauere Beschreibung des Diensts. watch-tcp-port koppelt die SLP-Dienstankündigung daran.d ist die Gruppierung aller Dienste innerhalb einer zentralen Datei.sane) und die Adresse. so the service registration does ## not need refreshes service:scanner. Wählen Sie für die Registrierungsdauer einen Wert zwischen 0 und 65535. indem slpd den Status des Diensts überprüft. Diese Angaben müssen durch Kommas von der Dienst-URL getrennt werden. die mit service: beginnt. 0 verhindert die Registrierung. die in den entsprechenden Browsern angezeigt wird. unter der der Dienst auf dem Server verfügbar ist.reg.en. um SLP-Informationen über ein Netzwerk zu überprüfen und zu verwenden: 396 Referenz . Geben Sie nun die Sprache an.

Mit restart oder status lösen Sie einen Neustart bzw. Für das bloße Abfragen von Diensten ist ein Start dieses Daemons nicht erforderlich. der alle im lokalen Netzwerk über SLP bekannt gegebenen Dienste in einer Baumansicht darstellt. SLP-Browser von YaST YaST enthält unter Netzwerkdienste → SLP-Browser einen separaten SLP-Browser. slptool kann auch aus Skripts heraus aufgerufen werden. mit dem proprietäre Dienste oder SLP-Anfragen im Netzwerk bekannt gegeben werden können. um ihn zu starten. die beim Booten eines Systems gestartet werden. Wie die meisten Systemdienste unter SUSE Linux wird der slpd-Daemon über ein separates init-Skript gesteuert. 19. die SLP-Informationen verarbeiten. Soll slpd standardmäßig aktiv sein. eine Statusabfrage aus. wenn Sie Dienste anbieten möchten. Standardmäßig ist der Daemon inaktiv. SLP-Dienste im Netzwerk 397 . führen Sie den Befehl insserv slpd einmalig als root aus. Wenn Sie Konqueror mit service:/ aufrufen. Wenn Sie ihn für die Dauer einer Sitzung aktivieren möchten. werden alle im lokalen Netz verfügbaren SLP-Dienste angezeigt. Dadurch wird slpd automatisch zu den Diensten hinzugefügt.slptool slptool ist ein einfaches Befehlszeilenprogramm. Mit slptool --help werden alle verfügbaren Optionen und Funktionen aufgelistet. Konqueror Wird Konqueror als Netzwerkbrowser eingesetzt und mit slp:/ aufgerufen.3 SLP aktivieren slpd muss auf Ihrem System laufen. führen Sie rcslpd start as root aus. um ausführlichere Informationen zum entsprechenden Dienst zu erhalten. können Sie mit einem Klick auf das entsprechende Symbol im Browserfenster eine Verbindung zum ausgewählten Dienst aufbauen. Mit dem Befehl rcslpd stop können Sie ihn stoppen. Klicken Sie auf die Symbole im Hauptfenster.

die SLP-Funktionen verwenden möchten.SuSE-Datei mit Details zu SUSE Linux. sollten das Paket openslp-devel installieren und im darin enthaltenen Programmers Guide nachschlagen.openslp. RFC 2609 geht näher auf die Syntax der verwendeten Dienst-URLs ein und RFC 2610 thematisiert DHCP über SLP. 2609. http://www.19. 2610 RFC 2608 befasst sich mit der Definition von SLP im Allgemeinen. 398 Referenz .com Die Homepage des OpenSLP-Projekts.4 Weitere Informationen Weitere Informationen zu SLP finden Sie in folgenden Quellen: RFC 2608. den oben genannten RFCs und zwei einleitenden HTML-Dokumenten. /usr/share/doc/packages/openslp Dieses Verzeichnis enthält alle zu SLP verfügbaren Dokumentationen einschließlich einer README. Programmierer.

So wird die IP-Adresse 192. sollten Sie die allgemeinen Informationen zu DNS in Abschnitt 18. 361) lesen. einen sekundären Server für die Slave-Zone oder einen Slave-Server ohne jede Zone für das Caching besitzen. 20.1 DNS-Terminologie Zone Der Domänen-Namespace wird in Regionen. Domänennamensystem) ist zur Auflösung der Domänenund Hostnamen in IP-Adressen erforderlich. „Namensauflösung“ (S. auf dem der Name und die IP-Informationen für eine Domäne gespeichert sind. so genannte Zonen.Das Domain Name System (DNS) 20 DNS (Domain Name System. Sie können einen primären DNS-Server für die Masterzone. DNS-Server der Masterzone Die Masterzone beinhaltet alle Hosts aus Ihrem Netzwerk und der DNS-Server der Masterzone speichert die aktuellen Einträge für alle Hosts in Ihrer Domäne. unterteilt. die Zone opensuse der Domäne org.0. Die folgenden Konfigurationsbeispiele beziehen sich auf BIND. So ist beispielsweise opensuse.0 beispielsweise dem Hostnamen earth zugewiesen.org der Bereich bzw.3. DNS-Server Der DNS-Server ist ein Server. Bevor Sie Ihren eigenen Namenserver einrichten.168. Das Domain Name System (DNS) 399 .

400 Referenz . Der DNS-Server der Slave-Zone antwortet autorisiert für die Zone. Einige spezielle Einträge sind beispielsweise: NS-Eintrag Ein NS-Eintrag informiert die Namenserver darüber. die er nicht bearbeiten kann. Der DNS-Server der SlaveZone erhält seine Zonendaten mithilfe von Zonentransfers von seinem Masterserver. die für einfache Szenarien ausreichend ist.DNS-Server der Slave-Zone Eine Slave-Zone ist eine Kopie der Masterzone. SOA-Eintrag Der SOA (Start of Authority)-Eintrag ist der erste Eintrag in einer Zonendatei. welche Computer für eine bestimmte Domänenzone zuständig sind. MX-Eintrag Die MX (Mailaustausch)-Einträge beschreiben die Computer. die für die Weiterleitung von Mail über das Internet kontaktiert werden sollen. einige grundlegende Entscheidungen hinsichtlich der Serveradministration zu treffen. Der SOA-Eintrag wird bei der Synchronisierung von Daten zwischen mehreren Computern über DNS verwendet. Die unterstützten Einträge und ihre Syntax sind in der BIND-Dokumentation beschrieben. solange er über gültige (nicht abgelaufene) Zonendaten verfügt.2 Konfiguration mit YaST Mit dem DNS-Modul von YaST können Sie einen DNS-Server für Ihr lokales Netzwerk konfigurieren. an die der DNS-Server Abfragen sendet. Forwarder Forwarders sind DNS-Server. Nach Abschluss der anfänglichen Konfiguration ist eine grundlegende Serverkonfiguration verfügbar. Wenn der Slave keine neue Kopie der Zonendaten erhält. Komplexere Konfigurationsaufgaben können im Expertenmodus ausgeführt werden. Eintrag Der Eintrag besteht aus Informationen zu Namen und IP-Adresse. Beim ersten Starten des Moduls werden Sie von einem Assistenten aufgefordert. antwortet er nicht mehr für die Zone. 20.

in den Expertenkonfigurationsmodus zu wechseln.1. Bei einer neuen Zone müssen Sie unter Name der Zone einen Namen angeben. ob der PPP-Daemon eine Liste von Forwarders bei der Einwahl über DSL oder ISDN eine Liste von Forwarders bereitstellen soll (PPP-Daemon legt Forwarders fest) oder ob Sie Ihre eigene Liste angeben möchten (Forwarders manuell festlegen). „DNS-Server-Installation: ForwarderEinstellungen“ (S.in-addr.2. 402). 401)) geöffnet.1 Assistentenkonfiguration Der Assistent besteht aus drei Schritten bzw.arpa enden. 415) beschrieben. „Zonendateien“ (S. Dialogfeldern. Abbildung 20.2. Um eine Reverse Zone hinzuzufügen. wird das Dialogfeld ForwarderEinstellungen (siehe Abbildung 20. muss der Name auf . um andere Einstellungen für eine Das Domain Name System (DNS) 401 . 1 Wenn Sie das Modul zum ersten Mal starten. Siehe Abbildung 20. An den entsprechenden Stellen in den Dialogfeldern haben Sie die Möglichkeit.20.5. „DNS-Server-Installation: DNS-Zonen“ (S. Klicken Sie auf Zone bearbeiten. wie in Abschnitt 20. Wählen Sie schließlich den Zonetyp (Master oder Slave) aus. Legen Sie hier fest.1 DNS-Server-Installation: Forwarder-Einstellungen 2 Das Dialogfeld DNS-Zonen besteht aus mehreren Teilen und ist für die Verwaltung von Zonendateien zuständig.

2 DNS-Server-Installation: DNS-Zonen 3 Im abschließenden Dialogfeld können Sie die Ports für den DNS-Dienst in der Firewall öffnen. die während der Installation aktiviert wird. ob DNS gestartet werden soll. „DNS-Server-Installation: Wizard beenden“ (S. Siehe Abbildung 20.3. 402 Referenz . 403). Abbildung 20. Zum Entfernen einer Zone klicken Sie auf Zone löschen. und angeben.bestehende Zone zu konfigurieren. Die Expertenkonfiguration lässt sich ebenfalls über dieses Dialogfeld aufrufen.

2 Konfiguration für Experten Nach dem Starten des Moduls öffnet YaST ein Fenster. Das Domain Name System (DNS) 403 . wählen Sie DNSServer nun starten. Um den DNS-Server sofort zu starten. Um den DNS-Server anzuhalten.3 DNS-Server-Installation: Wizard beenden 20. Sie können den DNS-Anschluss in der Firewall mit Firewall-Port öffnen öffnen und die Firewall-Einstellungen mit Firewall-Details bearbeiten. Nach Abschluss dieses Fensters steht eine DNS-ServerKonfiguration mit Grundfunktionen zur Verfügung: Starten des DNS-Servers Legen Sie unter Systemstart fest. Zum Speichern der aktuellen Einstellungen wählen Sie Einstellungen speichern und DNS-Server nun neu starten. ob der DNS-Server beim Booten des Systems oder manuell gestartet werden soll.2. wählen Sie DNS-Server nun anhalten. in dem mehrere Konfigurationsoptionen angezeigt werden.Abbildung 20.

Weitere Optionen sind unter Zusätzliches Protokollieren verfügbar.4. aktivieren Sie Zonen-Transfer protokollieren. Um den Datenverkehr während eines Zonentransfers von Master zu Slave zu protokollieren. wählen Sie Protokollieren aus. Geben Sie unter Protokolltyp an. was und wie der DNS-Server protokollieren soll. der während Zonenaktualisierungen zwischen dem DHCP. In letzterem Fall müssen Sie außerdem die maximale Dateigröße in Megabyte und die Anzahl der zu speichernden Protokolldateien angeben. In diesem Fall kann die Protokolldatei extrem groß werden. Verwenden Sie die systemweite Protokolldatei /var/log/messages durch Auswahl von In Systemprotokoll protokollieren oder geben Sie durch Auswahl von In Datei protokollieren eine andere Datei an. Daher sollte diese Option nur zur Fehlersuche aktiviert werden.Protokollieren Um festzulegen. „DNS-Server: Protokollieren“ (S. Abbildung 20. 404). Siehe Abbildung 20. wohin der DNS-Server die Protokolldaten schreiben soll. Durch Aktivieren von Alle DNS-Abfragen protokollieren wird jede Abfrage protokolliert. aktivieren Sie Zonen-Updates protokollieren.4 DNS-Server: Protokollieren 404 Referenz .und dem DNS-Server stattfindet. Um den Datenverkehr zu protokollieren.

Siehe Abbildung 20. Um den Zugriff auf den Server zu beschränken. klicken Sie auf DNS-Zonen. von dem der Slave die Daten abrufen soll. wählen Sie eine der ACLs aus der Liste aus. klicken Sie auf DNS-Zonen.5. den Master an. wählen Sie den Zonentyp Slave aus und klicken Sie auf Hinzufügen. Geben Sie im Zonen-Editor unter Master DNS Server (Master-DNS-Server). Bearbeiten einer Masterzone Wenn Sie eine Masterzone bearbeiten möchten. geben Sie den Namen der neuen Zone ein und klicken Sie auf Hinzufügen. wählen Sie die Masterzone in der Tabelle aus und klicken Das Domain Name System (DNS) 405 . wählen Sie den Zonentyp Master aus. klicken Sie auf DNS-Zonen. 405).5 DNS-Server: Zonen-Editor des Slave Hinzufügen einer Masterzone Wenn Sie eine Masterzone hinzufügen möchten.Hinzufügen einer Slave-Zone Wenn Sie eine Slave-Zone hinzufügen möchten. „DNS-Server: Zonen-Editor des Slave“ (S. wählen Sie den Zonentyp Master aus. Abbildung 20.

„DNS-Server: Zonen-Editor (MX-Einträge)“ (S. geben Sie die entsprechende Adresse und den entsprechenden Prioritätswert ein. 406 Referenz .6. SOA und Einträge.7. Das Dialogfeld besteht aus mehreren Seiten: Basic (Grundlagen) (die zuerst geöffnete Seite).6 DNS-Server: Zonen-Editor (NS-Einträge) Zonen-Editor (MX-Einträge) Um einen Mailserver für die aktuelle Zone zur bestehenden Liste hinzuzufügen. Siehe Abbildung 20. „DNS-Server: Zonen-Editor (NS-Einträge)“ (S. 406). Um einen Eintrag hinzuzufügen. geben Sie seinen Namen unter Hinzuzufügender Namenserver ein und bestätigen Sie den Vorgang anschließend mit Hinzufügen. dass Ihr eigener Namenserver in der Liste enthalten ist. Abbildung 20. NS-Einträge. MX-Einträge. Zonen-Editor (NS-Einträge) In diesem Dialogfeld können Sie alternative Namenserver für die angegebenen Zonen definieren. Siehe Abbildung 20. Vergewissern Sie sich. 407).Sie auf Bearbeiten. Bestätigen Sie den Vorgang anschließend durch Auswahl von Hinzufügen.

zone“ (S.Abbildung 20.7 DNS-Server: Zonen-Editor (MX-Einträge) Zonen-Editor (SOA) Auf dieser Seite können Sie SOA (Start of Authority)-Einträge erstellen.6. Eine Erklärung der einzelnen Optionen finden Sie in Beispiel 20. 415). Das Domain Name System (DNS) 407 . „Datei /var/lib/named/world.

Diese drei Typen werden in einen bestehenden AEintrag aufgelöst. Wenn Sie bereits über eine funktionierende Internetverbindung verfügen und 127. sodass er problemlos unmittelbar nach der Installation gestartet werden kann. Der Wert hierfür sollte eine IP-Adresse sein. BIND führt die Namenauflösung über den Root-Namenserver durch. ohne dass Ihnen der DNS des Anbieters bekannt sein muss.0.Abbildung 20. PTR dient für Reverse Zones. mit denen die Informationen aus den Registerkarten NS-Einträge und MX-Einträge erweitert werden.8 DNS-Server: Zonen-Editor (SOA) Zonen-Editor (Einträge) In diesem Dialogfeld wird die Namenauflösung verwaltet. Geben Sie unter Eintragschlüssel den Hostnamen an und wählen Sie anschließend den Typ aus.conf eingegeben haben.3 Starten des Namenservers BIND Bei SUSE Linux-Systemen ist der Namenserver BIND (Berkeley Internet Name Domain) vorkonfiguriert. 20. Dies ist ein wesentlich langsamerer Prozess. CNAME ist ein Alias. A-Record steht für den Haupteintrag. Es handelt sich um das Gegenteil eines A-Eintrags.1 als Namenserveradresse für localhost in /etc/resolv. Normalerweise sollte der DNS des Anbieters zusammen mit der 408 Referenz . verfügen Sie normalerweise bereits über eine funktionierende Namenauflösung.0. Verwenden Sie die Typen NS und MX für detaillierte oder partielle Einträge.

Nur wenn Sie seine eigenen Zonen konfigurieren. TIPP: Automatische Anpassung der Namenserverinformationen Je nach Typ der Internet. Wenn Sie eine Fehlermeldung erhalten. Passen Sie diese Einträge an Ihr eigenes Setup an.0.0.1 ein. „Weiterleitungsoptionen in named.1 zurückgeben. wird er ein richtiger DNS. Um den Namenserver des Anbieters oder einen bereits in Ihrem Netzwerk ausgeführten Server als Forwarder zu verwenden. sollten Sie sie besser nicht verwenden. da BIND ansonsten keine Anforderungen für diese Domäne weiterleitet. Dies sollte immer funktionieren. bis Ihnen eine von der verantwortlichen Institution zugewiesen wird. um eine effektive und sichere Namenauflösung zu gewährleisten. wird der Namenserver als reiner NurCache-Namenserver ausgeführt.conf“ (S. Netzwerkverbindung können die Namenserverinformationen automatisch an die aktuellen Bedingungen angepasst werden. Beim ersten Test geben Sie host 127.1. 410) handelt es sich lediglich um Beispiele. Selbst wenn Sie eine eigene Domäne besitzen und diese vom Anbieter verwaltet wird.0. geben Sie die entsprechende IP-Adresse(n) im Abschnitt options unter forwarders ein.conf unter forwarders eingegeben werden. Bei den Adressen in Beispiel 20. Diese sollten localhost als Standardserver mit der Adresse 127. Das Domain Name System (DNS) 409 . Setzen Sie hierfür die Variable MODIFY_NAMED_CONF_DYNAMICALLY in der Datei/etc/sysconfig/network/config auf yes. Warten Sie. Testen Sie den Namenserver umgehend auf dem lokalen System mit den Programmen host bzw. Wenn der Namenserver sich nicht starten lässt oder unerwartetes Verhalten zeigt. Ein einfaches Beispiel hierfür ist in der Dokumentation unter /usr/share/doc/packages/bind/sample-config enthalten.zugehörigen IP-Adresse in die Konfigurationsdatei /etc/named.bzw. enthält /etc/resolv. Richten Sie jedoch noch keine offiziellen Domänen ein. sollten Sie mit rcnamed status überprüfen. wie der Namenserverprozess hier genannt wird. Beispielsweise könnte in diesem Fall für diese Domäne der Zugriff auf den Webserver beim Anbieter nicht möglich sein.0. Geben Sie zum Starten des Namenservers den Befehl rcnamed start als root ein. erfolgreich gestartet. ob der Server tatsächlich ausgeführt wird. Falls rechts in grüner Schrift „done“ angezeigt wird. wurde named. finden Sie die Ursache normalerweise in der Protokolldatei /var/ log/messages. Ist dies nicht der Fall. dig. Wenn dies so weit funktioniert.conf vermutlich einen falschen Namenservereintrag oder die Datei ist überhaupt nicht vorhanden.

0. Achten Sie außerdem darauf.in-addr.conf finden Sie in Beispiel 20.2. Eine Minimalversion von /etc/named. IP-Adressen usw. wenn Sie den Namenserver mit rcnamed restart anhalten und erneut starten.0. 411). Einzelheiten hierzu werden weiter unten beschrieben. 410 Referenz . 192.“ abgeschlossen ist und dass sich die geschweiften Klammern an der richtigen Position befinden. dass jeder Eintrag mit einem „. Dies geschieht mit dem Befehl rcnamed reload. localhost und 0. wie sie sind. allow-query { 127/8.conf gespeichert. 192. die aus Hostnamen. Sie können den Server jederzeit durch Eingabe von rcnamed stop anhalten.168.12. Der Eintrag type hint unter „. Der Abschnitt logging und die Einträge unter acl (access control list.14. }. sind jedoch in gesonderten Dateien im Verzeichnis /var/lib/named gespeichert.127. }. Dieselbe Wirkung erzielen Sie.13. Zugriffssteuerungsliste) sind optional.4 Die Konfigurationsdatei /etc/dhcpd.11.conf lässt sich grob in zwei Bereiche untergliedern. Nach dem Ändern der Konfigurationsdatei /etc/named.12. 20. „Eine Grundversion von /etc/named. forwarders { 10. /etc/named. Der eine ist der Abschnitt options für allgemeine Einstellungen und der zweite besteht aus zone-Einträgen für die einzelnen Domänen. }.Beispiel 20. bestehen. 10.0. Kommentarzeilen beginnen mit # oder mit //. diese erneut zu lesen.99.conf oder der Zonendateien müssen Sie BIND anweisen.0.conf Alle Einstellungen für den BIND-Namenserver selbst sind in der Datei /etc/named . listen-on { 127.conf options { directory "/var/lib/named".1.11.“ sollte immer vorhanden sein. Die entsprechenden Dateien müssen nicht bearbeitet werden und sollten so funktionieren.arpa.1 Weiterleitungsoptionen in named. }.0/24.168. notify no.conf“ (S. Auf den Eintrag options folgen Einträge für die Zone. Die Zonendaten für die zu bearbeitenden Domänen.

0. In der Regel ist dies /var/lib/named. ip-adresse. }. }.2 Eine Grundversion von /etc/named. forward first. listen-on port 53 { 127. 20.conf options { directory "/var/lib/named".4. }. dass DNS-Anforderungen weitergeleitet werden. Ersetzen Sie ip-adresse durch eine IP-Adresse wie 10. Informiert BIND darüber. }. }.0.in-addr. an welchen Netzwerkschnittstellen und Ports ClientAbfragen akzeptiert werden sollen. }. Gibt das Verzeichnis an. forwarders { 10.arpa" in { type master. Dies ist bei FirewallKonfigurationen sinnvoll. file "root. }.0. sie über die Root-Namenserver aufzulösen. wenn sie nicht direkt aufgelöst werden können.0. an die DNS-Anforderungen weitergeleitet werden sollen.zone". file "localhost.0.0. bevor versucht wird.hint".127.Beispiel 20.1. port 53 muss nicht explizit angegeben wer- Das Domain Name System (DNS) 411 . Gibt die Namenserver (zumeist des Anbieters) an.0.zone".1.1 Wichtige Konfigurationsoptionen directory „Dateiname“. forwarders { ip-adresse. ohne dass sie an die Root-Namenserver gesendet werden. file "127.1.0. notify no. in dem BIND die Dateien mit den Zonendaten finden kann. Damit werden alle Anforderungen weitergeleitet. Führt dazu. Anstatt forward first kann forward only verwendet werden. zone "localhost" in { type master. zone ". zone "0.0." in { type hint.

Ohne diesen Eintrag generiert BIND in der Datei /var/log/messages mehrere Zeilen mit statistischen Informationen pro Stunde. werden standardmäßig alle Schnittstellen verwendet. Ohne diesen Eintrag können Zonentransfer ohne Einschränkungen von jedem beliebigen Ort aus angefordert werden.0. allow-query { 127. Informiert BIND darüber. }. statistics-interval 0.1 ein. listen-on-v6 port 53 {any. netz. }. hier 255. query-source-v6 address * port 53. Dadurch wird BIND angewiesen. Die verwendete Einheit für die Zeitangabe ist Minuten. welche Hosts Zonentransfers anfordern können.. Jedes Mal.1. Anforderungen extern von Port 53 und nicht von einem der Ports mit den hohen Nummern über 1024 aufzugeben.168. wenn eine Firewall ausgehende DNS-Anforderungen blockiert. um diese Statistiken vollständig zu unterdrücken. Diese Option legt fest. von denen aus Clients DNS-Anforderungen aufgeben können.0. allow-transfer ! *.255. Legt fest. Ersetzen Sie netz durch Adressinformationen wie 192. cleaning-interval 720. welcher Port auf IPv6-Client-Anforderungen überwacht werden soll. in welchen Zeitabständen BIND den Cache leert. Setzen Sie diesen Wert auf „0“. Der Wert /24 am Ende ist ein abgekürzter Ausdruck für die Netzmaske. Wenn Sie diesen Eintrag ganz auslassen. wird ein Eintrag in /var/log/messages ausgelöst.0. 412 Referenz . Geben Sie 127. Die einzige Alternative zu any ist none. wenn dies geschieht. um Anforderungen vom lokalen Host zuzulassen. query-source address * port 53.0. Dieser Eintrag ist erforderlich. welcher Port für IPv6-Abfragen verwendet werden soll.0.1/24.den. Der Standardwert ist 60 Minuten. Definiert die Netzwerke. oder legen Sie ein Zeitintervall in Minuten fest. Informiert BIND darüber.255. Im vorliegenden Beispiel werden solche Anforderungen durch ! * vollständig verweigert. Bei IPv6 akzeptiert der Server nur Wildcard-Adressen. da 53 der Standard-Port ist.

„Eintrag zur Deaktivierung der Protokollierung“ (S. Normalerweise sollten die Standardeinstellungen ausreichen. file "meine-domaene. no verhindert.4 Zoneneintrag für meine-domaene. Beispiel 20.de" in { type master. }. bei dem jegliche Protokollierung unterdrückt wird. }. gefolgt von in und einem Block relevanter Optionen in geschweiften Klammern. 20. Wenn dieser Wert auf 0 gesetzt ist. der diese Zone als master verwaltet Das Domain Name System (DNS) 413 .4.2 Protokollieren Der Umfang. die Art und Weise und der Ort der Protokollierung kann in BIND extensiv konfiguriert werden. notify no.3 Zoneneinträge Beispiel 20.interface-interval 0. wie in Beispiel 20. Geben Sie nach zone den Namen der zu verwaltenden Domäne (meine-domaene.zone". 413) sehen Sie die einfachste Form eines solchen Eintrags. 20. }. ändern Sie den Wert von type in slave und geben Sie einen Namenserver an. „Zoneneintrag für meine-domaene. dass anderen Namenserver informiert werden. notify no. Der Standardwert ist 60 Minuten.de zone "meine-domaene. wird dieser Vorgang nicht durchgeführt und BIND überwacht nur die beim Start erkannten Schnittstellen.de“ (S. Um eine Slave-Zone zu definieren.4. Anderenfalls wird das Zeitintervall in Minuten angegeben. BIND durchsucht die Netzwerkschnittstellen regelmäßig nach neuen oder nicht vorhandenen Schnittstellen.4. In Beispiel 20.de) an.3 Eintrag zur Deaktivierung der Protokollierung logging { category default { null. wenn Änderungen an den Zonendaten vorgenommen werden oder wenn der Namenserver neu gestartet wird.3. 413) gezeigt.

zone“. Durch die Angabe master wird BIND darüber informiert. masters { server-ip-adresse. file "slave/andere-domaene.de zone "andere-domaene. Dieser Eintrag ist nur für Slave-Zonen erforderlich. }.5 Zoneneintrag für andere-domaene. }. vom Typ hint wird zur Festlegung der Root-Namenserver verwendet. }. Sie muss zusammen mit masters verwendet werden. „Zoneneintrag für andere-domaene.de“ (S. Beispiel 20. der Clients das Anlegen von DNS-Einträgen gestatten würde. verwenden Sie das Verzeichnis slave für die Slave-Dateien. In diesem Eintrag wird die Datei angegeben. Diese Zonendefinition kann unverändert beibehalten werden. allow-update {! *.0.zone". von welchem Namenserver die Zonendatei übertragen werden soll. Diese Datei ist für einen Slave nicht erforderlich. da die betreffenden Daten von einem anderen Namenserver abgerufen werden.0. type slave.(dieser kann wiederum ein Slave eines anderen Masters sein). dass der lokale Namenserver für die Zone zuständig ist. Diese Zone wird von einem anderen Namenserver übertragen. wie in Beispiel 20. Er gibt an.und Slave-Dateien zu unterscheiden. Dies setzt voraus. file meine-domaene.zone oder file „slave/andere-domaene. Ohne diesen Eintrag sind überhaupt keine Zonenaktualisie- 414 Referenz . Um zwischen Master. type hint. Dies ist in der Regel aus Sicherheitsgründen nicht erstrebenswert. 414) gezeigt.de" in { type slave. Zonenoptionen: type master. Mit dieser Option wird der externe Schreibzugriff gesteuert. masters { 10. }.5. in der sich die Zonendaten für die Domäne befinden.1. dass eine Zonendatei im richtigen Format erstellt wurde. Die Zone .

Vollständige Hostnamen. müssen mit . die mit einem vollständigen Domänennamen angegeben werden.168. .cosmos zuständig ist (siehe Beispiel 20. Ein fehlender oder falsch platzierter Punkt ist wahrscheinlich die häufigste Ursache von Fehlern bei der Namenserverkonfiguration.cosmos.6. IN SOA 2003072441 1D 2H 1W 2D ) IN NS IN MX gateway sun moon earth mars www IN IN IN IN IN IN IN A A A A A A CNAME gateway serial refresh retry expiry minimum root.1.6 Datei /var/lib/named/world. dass die Domäne ein weiteres Mal angefügt wird. .zone“ (S.cosmos. um zu verhindern. die für die Domäne world.0.2 192.168. wird die Zone angefügt. am Ende angegeben werden.168. . Wenn Hostnamen ohne .zone $TTL 2D world.168.168.3 192. gateway 10 sun 192.1.5 Zonendateien Zwei Arten von Zonendateien sind erforderlich.rungen zulässig.zone. TIPP: Verwenden des Punktes in Zonendateien Der Punkt (.0. Beispiel 20. Der erste zu betrachtende Fall ist die Zonendatei world.3 moon Das Domain Name System (DNS) 415 .168. Eine weist den Hostnamen IP-Adressen zu und die andere macht genau das Gegenteil: Sie stellt einen Hostnamen für eine IPAdresse bereit.1 192. abgeschlossen werden.) ist in den Zonendateien von entscheidender Bedeutung. 415)). Der oben stehende Eintrag hat dieselbe Wirkung.1.1 192. ( . . „Datei /var/lib/named/world.2 192. da ! * solche Aktivitäten effektiv unterbindet. 20.world.0.

wird hier stattdessen . Der Punkt (. um die sekundären Namenserver (Slave-Server) über Änderungen zu informieren. • Durch ( werden alle Zeilen bis einschließlich ) in den SOA-Eintrag aufgenommen.cosmos muss der Eintrag root. da er nicht mit . Zeile 3: Die Seriennummer (serial) ist eine beliebige Nummer. In diesem Beispiel sind die Einträge zwei Tage lang gültig (2 D).world. Alternativ kann hier @ eingegeben werden. endet.) am Ende muss stehen. 416 Referenz . Der Name wird von gateway zu gateway. Zeile 4: Die Aktualisierungsrate (refresh) gibt das Zeitintervall an. damit nicht die Zone angefügt wird. in dem die sekundären Namenserver die Seriennummer (serial) der Zone überprüfen. lauten.conf extrahiert.Zeile 1: $TTL legt die Standardlebensdauer fest. eingegeben. Sie wird benötigt. Zeile 2: Hier beginnt der SOA (Start of Authority)-Steuereintrag: • Der Name der zu verwaltenden Datei ist world. die sich bei jeder Änderung der Datei erhöht. • Es folgt die E-Mail-Adresse der für diesen Namenserver zuständigen Person. In diesem Fall beträgt dieses Intervall einen Tag. Hierfür hat sich eine 10-stellige Nummer aus Datum und Ausführungsnummer in der Form JJJJMMMTTNN als übliches Format etabliert. da anderenfalls die Zone ein zweites Mal angefügt würde. Dieser Eintrag endet mit . • Nach IN SOA befindet sich der Name des Namenservers.cosmos an der ersten Stelle.world. der als Master für diese Zone fungiert. Statt root@world. die für alle Einträge in dieser Datei gelten soll.. In diesem Fall wird die Zone aus dem entsprechenden Eintrag in /etc/named. Da das Zeichen @ bereits eine besondere Bedeutung hat.cosmos erweitert.cosmos.

Die Zahl vor dem Hostnamen ist der Präferenzwert. gateway wird zu gateway. werden alle hier aufgeführten Namenserver über die Änderungen an den Zonendaten informiert. weil er zwei Netzwerkkarten aufweist. verarbeitet und weiterleitet. die Ergebnisse nicht aufgelöster DNS-Abfragen von anderen Servern im Cache gespeichert werden können. Dem Host-Gateway (gateway) werden zwei IP-Adressen zugewiesen. Wenn die Mailzustellung an diesen Server nicht möglich ist. da sie ihre Domäne nicht enthalten. Zeile 9: IN NS gibt den für diese Domäne verantwortlichen Namenserver an. wird ein Versuch mit dem nächsthöheren Wert unternommen. aufgeführt. In diesem Fall sind dies zwei Stunden.world. Die Namen sind hier ohne . Daher werden sie alle um world.cosmos ergänzt. Kontakt zum primären Server herzustellen. Es kann mehrere solche Zeilen geben – eine für den primären und jeweils eine für jeden sekundären Namenserver. in denen den Hostnamen eine oder mehrere IP-Adressen zugewiesen werden. Dieses ist inzwischen veraltet.cosmos annimmt. Bei jeder traditionellen Hostadresse (IPv4) wird der Eintrag mit A gekennzeichnet. nach dem ein sekundärer Server die im Cache gespeicherten Daten verwirft. Zeile 10: Der MX-Eintrag gibt den Mailserver an.cosmos. In diesem Fall ist dies eine Woche. Wenn es sich um einer IPv6-Adresse handelt.conf nicht auf no gesetzt ist. endet. nach dem ein sekundärer Namenserver bei einem Fehler erneut versucht. wird der Eintrag mit A6 gekennzeichnet. Zeilen 12–17: Dies sind die eigentlichen Adresseinträge. Zeile 6: Die Ablaufzeit (expiry) gibt den Zeitraum an. der E-Mails für die Domäne world.Zeile 5: Die Wiederholungsrate (retry) gibt das Zeitintervall an. Das frühere Token für IPv6-Adressen war AAAA. wenn er keinen erneuten Kontakt zum primären Server herstellen konnte. Zeile 7: Die letzte Angabe im SOA-Eintrag gibt die negative Cache-Lebensdauer negative caching TTL an – die Zeitdauer.cosmos erweitert. In diesem Beispiel ist dies der Host sun. Wenn mehrere MX-Einträge vorhanden sind. Das Domain Name System (DNS) 417 . wird zunächst der Mailserver mit dem kleinsten Wert verwendet.world. da es nicht mit . Wenn notify in /etc/named.

verwendet er einen A. Da das obige Beispiel vollständig ist (es fehlen keine Bits). Die Pseudodomäne in-addr. eine völlig unfragmentierte Adresse zu verwenden.168. Beispiel: Ein alter AAAA-Datensatz mit folgender Syntax: pluto IN pluto IN AAAA 2345:00C1:CA11:0001:1234:5678:9ABC:DEF0 AAAA 2345:00D2:DA11:0001:1234:5678:9ABC:DEF0 Hier müssen Sie im A6-Format Informationen zu fehlenden Bits hinzufügen. Aufgrund der Möglichkeit einer Fragmentierung müssen Informationen zu fehlenden Bits vor der Adresse angegeben werden. Siehe Beispiel 20. 418 Referenz .arpa wird für Reverse-Lookups zur Auflösung von IP-Adressen in Hostnamen verwendet. „Reverse-Lookup“ (S.168.ANMERKUNG: A6-Syntax Der A6-Eintrag weicht in seiner Syntax ein wenig vom AAAA-Eintrag ab. Wenn ein Host eine IPv4-Adresse aufweist. Zeile 18: Der Alias www kann zur Adressierung von mond (CNAME steht für canonical name (kanonischer Name)) verwendet werden. selbst wenn Sie vorhaben.7.in-addr. Sie wird in umgekehrter Notation an den Netzwerk-Teil der Adresse angehängt. Sie müssen diese Informationen angeben.192.arpa aufgelöst.1 wird also in 1. 419).und keinen A6-Eintrag. 192. lautet das A6Format des Eintrags: pluto IN pluto IN AAAA 2345:00C1:CA11:0001:1234:5678:9ABC:DEF0 AAAA 2345:00D2:DA11:0001:1234:5678:9ABC:DEF0 Verwenden Sie keine IPv4-Adressen mit IPv6-Zuordnung.

cosmos. serial 1D .cosmos. IN SOA gateway.in-addr. Zeile 1: $TTL definiert die Standard-TTL.cosmos.192. am Ende eingegeben. expiry 2D ) . mars.cosmos) beschriebenen Einträgen.cosmos.) am Ende.in-addr. Zeilen 11–13: Dies sind die Zeigereinträge.168.arpa).cosmos. die Zone heißt 1.cosmos. refresh 2H .world.0 aktivieren.168. Das Domain Name System (DNS) 419 .192. earth.world. Die restlichen Einträge entsprechen den im vorherigen Beispiel (world. Angenommen. gateway.cosmos. Diesmal wird der Name allerdings in vollständiger Form mit Domäne und . ergibt sich die vollständige IP-Adresse in umgekehrter Reihenfolge. die auf die IP-Adressen auf den entsprechenden Hosts verweisen. root.world. Daher werden alle Hostnamen in ihrer vollständigen Form eingegeben – mit ihrer Domäne und mit einem Punkt (. am Ende. ohne . Zeile 2: Die Konfigurationsdatei sollte Reverse-Lookup für das Netzwerk 192. minimum IN NS 1 2 3 IN PTR IN PTR IN PTR gateway.1. Zeile 9: Diese Zeile gibt wieder den für diese Zone verantwortlichen Namenserver an.world. ( 2003072441 .arpa.Beispiel 20.in-addr. die für alle Einträge hier gilt. sollte sie nicht zu den Hostnamen hinzugefügt werden.arpa. Am Anfang der Zeile wird nur der letzte Teil der IP-Adresse eingegeben.world.world. retry 1W . Zeilen 3–7: Siehe vorheriges Beispiel für world.168. Wenn daran die Zone angehängt wird (ohne .7 Reverse-Lookup $TTL 2D 1.

geändert oder gelöscht werden. Die zu aktualisierenden Einträge werden mit dem Befehl nsupdate an den Server übermittelt. bei denen Einträge in den Zonendateien eines Masterservers hinzugefügt.6 Dynamische Aktualisierung von Zonendaten Der Ausdruck dynamische Aktualisierung bezieht sich auf Vorgänge.bzw. Aus Sicherheitsgründen sollten solche Aktualisierungen mithilfe von TSIG-Schlüsseln durchgeführt werden. als sich lediglich auf IPAdressen zu verlassen. 20. „Sichere Transaktionen“ (S. Dieser Mechanismus wird in RFC 2136 beschrieben. 20. Die Zugriffssteuerung von Schlüsseln abhängig zu machen. Die genaue Syntax dieses Befehls können Sie der Manual Page für nsupdate (man 8 nsupdate) entnehmen. Sichere Transaktionen werden für die Kommunikation zwischen verschiedenen Servern und für die dynamische Aktualisierung von Zonendaten benötigt. die auf gemeinsam genutzten geheimen Schlüsseln (auch TSIG-Schlüssel genannt) beruhen.7 Sichere Transaktionen Sichere Transaktionen können mithilfe von Transaktionssignaturen (TSIGs) durchgeführt werden. update-policy-Regel konfiguriert. Die dynamische Aktualisierung wird individuell für jeden Zoneneintrag durch Hinzufügen einer optionalen allow-update. 420) beschrieben. wie in Abschnitt 20.7.Normalerweise sollten Zonentransfers zwischen verschiedenen Versionen von BIND problemlos möglich sein. Dynamisch zu aktualisierende Zonen sollten nicht von Hand bearbeitet werden. In diesem Abschnitt wird die Erstellung und Verwendung solcher Schlüssel beschrieben. ist wesentlich sicherer. Erstellen Sie einen TSIG-Schlüssel mit folgendem Befehl (Einzelheiten finden Sie unter man dnssec-keygen): dnssec-keygen -a hmac-md5 -b 128 -n HOST host1-host2 Dadurch werden zwei Schlüssel mit ungefähr folgenden Namen erstellt: 420 Referenz .

Der Standardwert für diese Datei lautet 0640. damit eine sichere Kommunikation zwischen host1 und host2 möglich ist: key host1-host2. nicht zu verwechseln mit Dateisystem-ACLs) hinzu. WARNUNG: Dateiberechtigungen von /etc/named.Khost1-host2. um Transaktionssicherheit zu gewährleisten. mit root als Eigentümer und named als Gruppe.+157+34265 .2. möglichst auf eine sichere Weise (z.168. über SCP).3). muss die zweite Datei (Khost1-host2. wie beispielsweise ejIkuCyyGJwwuN3xAteKgg==) ist in beiden Dateien enthalten.}.conf aufgenommen wird. die für IP-Adressen und -Adressbereiche definiert sind.key Der Schlüssel selbst (eine Zeichenkette.conf enthalten sein. dass die Berechtigungen von /etc/named. }. secret ".}. die dann aus /etc/named. { algorithm hmac-md5.2.conf Vergewissern Sie sich. Alternativ können Sie die Schlüssel in eine gesonderte Datei mit speziell eingeschränkten Berechtigungen verschieben.+157+34265.3 { keys { host1-host2. Um ihn für Transaktionen zu verwenden. Fügen Sie TSIG-Schlüssel für alle ACLs (Access Control Lists. B. Das Domain Name System (DNS) 421 .conf ordnungsgemäß eingeschränkt sind. Dieses Thema wird eingehender im Referenzhandbuch für BIND-Administratoren (unter update-policy) erörtert. Auf dem entfernten Server muss der Schlüssel in der Datei /etc/ named. Zugriffssteuerungslisten. .conf des Servers folgende Regel enthalten: server 192. }. Analoge Einträge müssen in die Konfigurationsdateien von host2 aufgenommen werden.private Khost1-host2. Damit Server host1 den Schlüssel für host2 verwenden kann (in diesem Beispiel mit der Adresse 192.+157+34265. muss die Datei /etc/named.key) auf den entfernten Host übertragen werden.168. Der entsprechende Eintrag könnte wie folgt aussehen: allow-update { key host1-host2.ejIkuCyyGJwwuN3xAteKgg==. .

20. genau wie die Host-Schlüssel.SuSE enthält aktuelle Informationen zu BIND in SUSE Linux.8 DNS-Sicherheit DNSSEC (DNS-Sicherheit) wird in RFC 2535 beschrieben.9 Weitere Informationen Weitere Informationen können Sie dem Referenzhandbuch für BIND-Administratoren aus Paket bind-doc entnehmen. auf die im Handbuch verwiesen wird. sowie die in BIND enthaltenen Manualpages. /usr/share/doc/ packages/bind/README.conf aufgenommen werden sollen. das unter /usr/share/doc/packages/bind/ installiert ist. der dann auf sichere Weise in die übergeordnete Zone übertragen werden muss. Die für DNSSEC verfügbaren Werkzeuge werden im BIND-Handbuch erörtert. Die generierten öffentlichen Schlüssel sollten mithilfe einer $INCLUDE-Regel in die entsprechende Zonendatei aufgenommen werden. um die Zonen mit dnssec-signzone zu signieren. In der übergeordneten Zone wird der Satz mit dnssec-signkey signiert. Die durch diesen Befehl erstellten Dateien werden anschließend verwendet. die für die einzelnen Zonen in /etc/named. wodurch wiederum die Dateien erstellt werden. Mit dem Befehl dnssec-makekeyset werden alle erstellten Schlüssel zu einem Satz zusammengefasst. Zurzeit wird der DSA-Verschlüsselungsalgorithmus zum Erstellen dieser Schlüssel verwendet.20. Einer als sicher betrachteten Zone müssen ein oder mehrere Zonenschlüssel zugeordnet sein. 422 Referenz . Außerdem könnten Sie die RFCs zurate ziehen. Diese werden mit dnssec-keygen erstellt.

NIS (Network Information Service) kann als datenbankähnlicher Dienst verstanden werden. da es sich bei dem Dienst quasi um die „Gelben Seiten“ des Netzwerks handelt. da dies den Rahmen dieser Einführung sprengen würde.1 Konfigurieren von NIS-Servern Zur Verteilung von NIS-Informationen in Netzwerken können Sie entweder einen einzelnen Server (einen Master) verwenden. Möglich wird dies durch die NIS. NIS kann auch für andere Zwecke eingesetzt werden (beispielsweise. Arbeiten mit NIS 423 . Das Netzwerk soll für die Benutzer transparent sein: Sie sollten unabhängig vom verwendeten Computer immer die gleiche Umgebung vorfinden. Für NIS wird vielfach synonym der Begriff YP (Yellow Pages) verwendet. NFS dient der Verteilung von Dateisystemen im Netzwerk und wird in Kapitel 22. oder Sie verwenden NIS-Slave-Server. 21. /etc/shadow und /etc/group ermöglicht. 433) beschrieben.und Gruppen-IDs auf allen Computern in diesem Netzwerk identisch sind.und NFS-Dienste. dass alle Benutzer. muss sichergestellt sein.Arbeiten mit NIS 21 Sobald mehrere Unix-Systeme in einem Netzwerk auf gemeinsame Ressourcen zugreifen. Verteilte Nutzung von Dateisystemen mit NFS (S. der allen Clients Daten bereitstellt. die diese Informationen vom Master anfordern und dann an ihre jeweiligen Clients weiterleiten. der den netzwerkübergreifenden Zugriff auf den Inhalt der Dateien /etc/ passwd. Darauf wird hier jedoch nicht im Detail eingegangen. um den Inhalt von Dateien wie /etc/ hosts oder /etc/services verfügbar zu machen).

429) beschrieben. • Wenn Ihr NIS-Master-Server seine Daten an Slave-Server in anderen Subnetzen exportieren soll. 424) beschrieben. 424 Referenz . fahren Sie mit Abschnitt 21. um einen NIS-Master-Server für Ihr Netzwerk zu konfigurieren: 1 Starten Sie YaST → Netzwerkdienste → NIS-Server.1. 424) fort.1. um die Erstellung eines NISMaster-Servers zu initiieren.1. „Konfigurieren eines NIS-Master-Servers“ (S. klicken Sie auf NIS Master Server einrichten. „Konfigurieren eines NIS-Master-Servers“ (S. wählen Sie NIS Master Server installieren und einrichten. richten Sie den Master-Server ein. und richten Sie die Slave-Server in den Subnetzen ein.2. 2 Falls Sie nur einen NIS-Server in Ihrem Netzwerk benötigen oder dieser Server als Master für NIS-Slave-Server fungieren soll. „Konfigurieren eines NIS-Slave-Servers“ (S.• Um nur einen NIS-Server für Ihr Netzwerk zu konfigurieren. TIPP Wenn bereits NIS-Serversoftware auf Ihrem Computer installiert ist. wie unter Abschnitt 21. 21. YaST installiert die erforderlichen Pakete. wie unter Abschnitt 21.1.1 Konfigurieren eines NIS-Master-Servers Gehen Sie wie folgt vor.1.1.

1 NIS-Serverkonfiguration 3 Legen Sie die grundlegenden Optionen für das NIS-Setup fest: a Geben Sie den NIS-Domänennamen ein. ob der Host auch ein NIS-Client sein soll. b Definieren Sie. „GECOS“ bedeutet. „SHELL“ erlaubt Benutzern. an dem sich Benutzer anmelden und auf Daten vom NIS-Server zugreifen können. Wählen Sie Ändern der Passwörter zulassen. indem Sie Dieser Rechner ist zugleich NIS-Client auswählen. Arbeiten mit NIS 425 . um Benutzern in Ihrem Netzwerk (sowohl lokalen als auch den vom NIS-Server verwalteten Benutzern) das Ändern ihres Passworts auf dem NIS-Server zu ermöglichen (mit dem Befehl yppasswd). von bash zu sh. mit dem Befehl ypchsh ihre Standard-Shell zu ändern. B. dass Benutzer mit dem Befehl ypchfn auch ihre Namens. Die neue Shell muss einer der vordefinierten Einträge in /etc/shells sein. Dadurch werden die Optionen Ändern des GECOS-Eintrags zulassen und Ändern der Login-SHELL zulassen verfügbar.Abbildung 21.und Adresseinstellungen ändern können. z.

und Gruppen-ID fest. um zusätzliche Einstellungen vorzunehmen. die NIS anbieten soll. damit die Dateien (/etc/passwd. Klicken Sie auf OK. Andere globale Einstellungen umfassen das Ändern des Quellverzeichnisses für den NIS-Server (standardmäßig /etc).2 Konfiguration des Masterservers e Schließen Sie dieses Dialogfeld mit Weiter oder klicken Sie auf Andere globale Einstellungen. wählen Sie Aktiver Slave-Server für NIS vorhanden. d Wählen Sie Firewall-Ports öffnen.c Wenn Ihr NIS-Server als Master-Server für NIS-Slave-Server in anderen Subnetzen fungieren soll. Die Einstellung sollte auf Ja gesetzt sein. /etc/shadow und /etc/group) zum Erstellen der Benutzerdatenbank verwendet werden. Außerdem können hier Passwörter zusammengeführt werden. 426 Referenz . Legen Sie auch die kleinste Benutzer. damit YaST die Firewall-Einstellungen für den NIS-Server anpasst. Abbildung 21. um Ihre Einstellungen zu bestätigen und in das vorherige Fenster zurückzukehren.

h. die vom NIS-Server auf den jeweiligen Client übertragen werden sollen.3 Ändern des Verzeichnisses und Synchronisieren von Dateien für einen NIS-Server 4 Wenn Sie zuvor die Option Aktiver Slave-Server für NIS vorhanden aktiviert haben. 5 Werden keine Slave-Server verwendet. Schließen Sie das Dialogfeld mit Weiter. und klicken Sie auf Weiter.Abbildung 21. die Teildatenbanken. Die hier angezeigten Voreinstellungen sind für die meisten Fälle ausreichend. geben Sie die entsprechenden Hostnamen der Slaves ein und klicken Sie auf Weiter. um fortzufahren. Hier geben Sie die Maps an. wird die Slave-Konfiguration übersprungen und Sie gelangen direkt zum Dialogfeld für die Datenbankkonfiguration. Arbeiten mit NIS 427 . 6 Legen Sie fest. welche Maps (Teildatenbanken) verfügbar sein sollen. d.

0. Dies ist in der Regel nur das interne Netzwerk.0.4 Konfiguration der NIS Server Maps 7 Geben Sie die Hosts ein.0. aus welchen Netzwerken Anforderungen an den NIS-Server gesendet werden dürfen.0 127.0 0.Abbildung 21.0. Legen Sie fest. Anforderungen an den Server zu senden. bei dem es sich um den NIS-Server handelt. Mithilfe der entsprechenden Schaltflächen können Sie Hosts hinzufügen. die den NIS-Server abfragen dürfen. 428 Referenz .0.0 Der erste Eintrag ermöglicht Verbindungen vom eigenen Host.0. Der zweite erlaubt allen Hosts. In diesem Fall sollten die beiden folgenden Einträge vorhanden sein: 255.0.0 0.0. bearbeiten oder entfernen.

Abbildung 21. 21. 3 Vervollständigen Sie das grundlegende Setup Ihres NIS-Slave-Servers: Arbeiten mit NIS 429 .1. um die Erstellung eines NIS-SlaveServers zu initiieren. TIPP Wenn bereits NIS-Serversoftware auf Ihrem Computer installiert ist. klicken Sie auf NIS Slave Server einrichten. um zusätzliche NIS-Slave-Server in Ihrem Netzwerk zu konfigurieren: 1 Starten Sie YaST → Netzwerkdienste → NIS-Server. um die Änderungen zu speichern und das Setup abzuschließen.2 Konfigurieren eines NIS-Slave-Servers Gehen Sie wie folgt vor.5 Einrichten von Anforderungsberechtigungen für einen NIS-Server 8 Klicken Sie auf Beenden. 2 Wählen Sie NIS Slave Server installieren und einrichten und klicken Sie auf Weiter.

0. wenn der angegebene Server nicht reagiert.0. Mithilfe der entsprechenden Schaltflächen können Sie Hosts hinzufügen. Legen Sie fest.0. c Aktivieren Sie Dieser Rechner ist zugleich NIS-Client. Falls eine statische IP-Adresse verwendet wird. 430 Referenz . bearbeiten oder entfernen. 5 Klicken Sie auf Beenden. wenn Sie Benutzeranmeldungen auf diesem Server ermöglichen möchten.6. Weitere Informationen zu DHCP finden Sie in Kapitel 23. bei dem es sich um den NIS-Server handelt. In diesem Fall sollten die beiden folgenden Einträge vorhanden sein: 255.0. Anforderungen an den Server zu senden.0 0. 21.2 Konfigurieren von NIS-Clients Verwenden Sie das Modul NIS-Client. in Ihrem ganzen Netzwerk nach einem aktiven NIS-Server zu suchen. aus welchen Netzwerken Anforderungen an den NIS-Server gesendet werden dürfen. Abhängig von der Größe Ihres lokalen Netzwerks kann das ein sehr zeitraubendes Verfahren sein. 4 Geben Sie die Hosts ein. die Zugriff auf das Netzwerk haben. um die Änderungen zu speichern und das Setup abzuschließen. die den NIS-Server abfragen dürfen.a Geben Sie die NIS-Domäne ein. 431). Gewöhnlich sind das alle Hosts. Legen Sie fest.0.0. 439). um eine Arbeitsstation für den Einsatz von NIS zu konfigurieren. e Klicken Sie auf Weiter. Broadcast verlangt einen NIS-Server im lokalen Netzwerk. geben Sie die NIS-Domäne und den NIS-Server manuell an. „Festlegen der Domäne und Adresse eines NIS-Servers“ (S.0 0. ob der Host eine statische IP-Adresse hat oder ob er eine Adresse vom DHCP-Server erhält. Siehe Abbildung 21.0 Der erste Eintrag ermöglicht Verbindungen vom eigenen Host.0 127. DHCP kann auch die NIS-Domäne und den NIS-Server angeben. Suchen weist YaST an. b Geben Sie den Hostnamen oder die IP-Adresse des Master-Servers ein. d Passen Sie die Firewall-Einstellungen mit Ports in Firewall öffnen an. Der zweite Eintrag ermöglicht allen Hosts.0. DHCP (S.0.

Deaktivieren Sie in den Experteneinstellungen die Option Entfernten Hosts antworten. wird der Client für das Empfangen von Antworten von einem Server aktiviert. Abhängig von Ihrer lokalen Installation können Sie auch den Automounter aktivieren.Sie können auch mehrere Server angeben.6 Festlegen der Domäne und Adresse eines NIS-Servers Arbeiten mit NIS 431 . Abbildung 21. welchen Server Ihr Client verwendet. Diese Option installiert bei Bedarf auch zusätzliche Software. der über einen nicht berechtigten Port kommuniziert. klicken Sie auf Beenden. Wenn Sie alle Einstellungen vorgenommen haben. um sie zu speichern und zum YaST-Kontrollzentrum zurückzukehren. Weitere Informationen finden Sie auf der Manualpage man ypbind. wenn Hosts nicht abfragen dürfen. indem Sie ihre Adressen durch Leerzeichen getrennt unter Adressen der NIS-Server angeben. Wenn Sie Fehlerhafter Server aktivieren.

.

1 Importieren von Dateisystemen mit YaST Autorisierte Benutzer können NFS-Verzeichnisse von NFS-Servern in ihre eigenen Dateibäume einhängen. 22. 22 Wie NIS ist NFS ein Client-Server-System. WICHTIG: DNS-Bedarf Im Prinzip können alle Exporte allein mit IP-Adressen vorgenommen werden. finden sie stets die gleiche Umgebung vor. das zu importierende Verzeichnis und den Einhängepunkt an. Dies ist zumindest für die Protokollierung erforderlich. ein Netzwerk für den Benutzer transparent zu machen. Ein Computer kann beides gleichzeitig sein – er kann Dateisysteme im Netzwerk zur Verfügung stellen (exportieren) und Dateisysteme anderer Hosts einhängen (importieren). Dies geschieht am einfachsten mit dem YaST-Modul NFSClient. Arbeiten mit NIS (S. Es ist jedoch ratsam. dient NFS neben NIS dazu. weil der mountd-Daemon Reverse-Lookups ausführt. über ein funktionierendes DNS-System zu verfügen. Durch NFS lassen sich Dateisysteme im Netzwerk verteilen. 423) erwähnt. Diese Eingaben werden im ersten Dialogfeld nach einem Klick auf Hinzufügen eingeVerteilte Nutzung von Dateisystemen mit NFS 433 . an dem das Verzeichnis lokal eingehängt werden soll. Geben Sie nur den Hostnamen des NFS-Servers. an welchem Terminal die Anwender angemeldet sind.Verteilte Nutzung von Dateisystemen mit NFS Wie bereits in Kapitel 21. Unabhängig davon. um Zeitüberschreitungen zu vermeiden.

dass ein RPC-Portmapper läuft. Die Syntax ist wie folgt: mount host:remote-path local-path Wenn beispielsweise Benutzerverzeichnisse vom Rechner sun importiert werden sollen. „Konfiguration des NFS-Clients mit YaST“ (S. 434).1 Konfiguration des NFS-Clients mit YaST 22.geben. Sobald diese Voraussetzung erfüllt ist. Siehe Abbildung 22. lautet der Befehl: mount sun:/home /home 434 Referenz .2 Manuelles Importieren von Dateisystemen Das manuelle Importieren von Dateisystemen von einem NFS-Server ist sehr einfach. Abbildung 22. Die einzige Voraussetzung ist. Der Status der Firewall wird neben dem Kontrollkästchen angezeigt. um die Firewall zu öffnen und entfernten Computern den Zugriff auf den Dienst zu gewähren. der durch die Eingabe des Befehls rcportmap start vom root gestartet werden kann. Klicken Sie auf Firewall-Port öffnen. können auf den entsprechenden Computer exportierte entfernte Dateisysteme analog zu lokalen Festplatten über den Befehl mount im Dateisystem eingehängt werden. Mit einem Klick auf OK werden Ihre Änderungen gespeichert.1.

„Konfigurieren eines NFS-Servers mit YaST“ (S. netgroups.22.3. die darauf Zugriff erhalten sollen. Dieses Dialogfeld ist in Abbildung 22. Abbildung 22. der Verzeichnisse und Dateien an alle Hosts exportiert.3 Exportieren von Dateisystemen mit YaST Mit YaST können Sie einen Rechner Ihres Netzwerks zu einem NFS-Server machen. wildcards und IP networks. 435). Für jeden Host können vier Optionen eingestellt werden: single host. Starten Sie YaST zum Installieren eines solchen Servers und wählen Sie Netzwerkdienste → NFS-Server.2. Auf diese Weise können Anwendungen für alle Mitglieder einer Gruppe zur Verfügung gestellt werden. Nähere Erklärungen zu diesen Optionen erhalten Sie durch Eingabe von man exports. „Konfiguration des NFS-Servers“ (S. Beenden schließt die Konfiguration ab. Legen Sie darunter Hosts fest. Geben Sie im oberen Textfeld die zu exportierenden Verzeichnisse an. 436) abgebildet. Dies ist ein Server. die ihm Zugriff gewähren. Es erscheint ein Dialogfeld wie in Abbildung 22. Verteilte Nutzung von Dateisystemen mit NFS 435 .2 Konfiguration des NFS-Servers Aktivieren Sie im nächsten Schritt NFS-Server starten und klicken Sie auf Weiter. ohne dass sie lokal auf deren Hosts installiert werden müssen.

mountd) • RPC-NFS-Daemon (rpc. wenn Firewall-Ports öffnen ausgewählt ist. stellen Sie sicher. indem der nfs-Dienst aktiviert wird.nfsd) 436 Referenz .3 Konfigurieren eines NFS-Servers mit YaST WICHTIG: Automatische Firewall-Konfiguration Wenn auf Ihrem System eine Firewall aktiviert ist (SuSEfirewall2).4 Manuelles Exportieren von Dateisystemen Wenn Sie auf die Unterstützung von YaST verzichten möchten. dass folgende Systeme auf dem NFS-Server laufen: • RPC-Portmapper (portmap) • RPC-Mount-Daemon (rpc. passt YaST deren Konfiguration für den NFS-Server an.Abbildung 22. 22.

Autorisierte Computer werden üblicherweise mit ihren vollständigen Namen (inklusive der Domänennamen) angegeben. Wenn hier kein Computer angegeben wird. Die wichtigsten Optionen sind in Tabelle 22. Die Berechtigungen für das zu exportierende Dateisystem werden nach dem Namen des Computers in Klammern festgelegt. geben Sie die Befehle insserv /etc/init. „Berechtigungen für exportierte Dateisysteme“ (S. kann jeder Computer das Dateisystem mit den angegebenen Rechten importieren.und Leserechten exportiert. Diese Benutzer-ID sollte dem Benutzer nobody (Standardeinstellung) zugewiesen sein. 437) beschrieben. root_squash no_root_squash Dem Benutzer mit der ID 0 wird nicht die Benutzer-ID 65534 zugewiesen. welche Dateisysteme an welchen Computer exportiert werden sollen. indem Benutzern mit der Benutzer-ID 0 (root) die Benutzer-ID 65534 zugewiesen wird.d/nfsserver gestartet werden.d/portmap und /etc/init.d/nfsserver und insserv /etc/init. aber es können auch Platzhalter wie * oder ? (die ähnlich wie in der Bash-Shell vervollständigt werden) verwendet werden.d/portmap ein. Alle Unterverzeichnisse eines Verzeichnisses werden ebenfalls automatisch exportiert. dass der Benutzer root eines importierenden Computers für das Dateisystem keine root-Berechtigungen hat.1 Option ro rw Berechtigungen für exportierte Dateisysteme Bedeutung Das Dateisystem wird schreibgeschützt exportiert (Standard). Diese Option bewirkt. Verteilte Nutzung von Dateisystemen mit NFS 437 . die root-Berechtigungen bleiben gültig. welche Computer mit welchen Berechtigungen darauf zugreifen dürfen. Erreicht wird dies. Für jedes zu exportierende Verzeichnis wird eine Zeile für die Informationen dazu benötigt.Damit beim Booten des Systems diese Dienste mithilfe der Skripts /etc/init. Das Dateisystem wird mit Schreib. Definieren Sie zudem in der Konfigurationsdatei /etc/exports.1. Tabelle 22.

Dies ist nur dann sinnvoll. link_absolute map_identity map_daemon Ihre exports-Datei sieht möglicherweise aus wie in Beispiel 22. 438).root_squash) (ro) 22.1. 438 Referenz ../ umgesetzt. Dies geschieht ganz einfach über rcnfsserver restart. „/etc/exports“ (S. Client und Server haben keine übereinstimmenden BenutzerIDs. Voraussetzung hierfür ist der Daemon ugidd. /etc/exports wird von mountd und nfsd gelesen. Wenn Sie in dieser Datei eine Änderung vornehmen. wenn das gesamte Dateisystem eines Computers eingehängt wurde (Standard).1 /etc/exports # # /etc/exports # /home /usr/X11 /usr/lib/texmf / /home/ftp # End of exports sun(rw) venus(rw) sun(ro) venus(ro) sun(ro) venus(rw) earth(ro. Auf dem Client werden die gleichen Benutzer-IDs verwendet wie auf dem Server (Standard). Durch diese Option wird nfsd angewiesen. eine Konvertierungstabelle für die Benutzer-IDs zu erstellen. Die ausführliche technische Dokumentation steht online unter http://nfs . Beispiel 22. Symbolische Links bleiben unverändert. starten Sie mountd und nfsd erneut.5 Weitere Informationen Informationen über das Konfigurieren eines NFS-Servers finden Sie in /usr/share/ doc/packages/nfs-utils/README und den dort aufgeführten Dokumenten. damit Ihre Änderungen wirksam werden.net/ zur Verfügung.sourceforge.Option link_relative Bedeutung Absolute Links (beginnend mit /) werden in eine Folge von .

Das ist nützlich. Einstellungen in einem Netzwerk zentral von einem Server aus zuzuweisen. Außerdem können vor allem neue Computer sehr einfach in das Netzwerk integriert werden. brauchen Sie den Client überhaupt nicht zu konfigurieren.DHCP 23 Das DHCP (Dynamic Host Configuration Protocol) dient dazu. Zum anderen kann DHCP aber auch so konfiguriert werden. wenn die Anzahl der Clients im Netzwerk nicht die Anzahl der Adressen übersteigt. dem Client bei jeder Anforderung dieselbe Adresse zuzuweisen . Ein für DHCP konfigurierter Host verfügt nicht über eine eigene statische Adresse. Er konfiguriert sich stattdessen vollständig und automatisch nach den Vorgaben des DHCP-Servers. wenn Sie in wechselnden Umgebungen arbeiten und nur jeweils eine Schnittstelle aktiv ist. indem sie aus dem Adresspool eine IP-Adresse zugewiesen bekommen. DHCP erleichtert Systemadministratoren das Leben. sobald der Client eine Verbindung herstellt. Einstellungen müssen also nicht dezentral an einzelnen Arbeitsplatzcomputern konfiguriert werden. dass der Server jedem Client.auch über einen längeren Zeitraum hinweg. Das Abrufen der entsprechen- DHCP 439 . Dies ist sehr viel komfortabler als das Neukonfigurieren zahlreicher Arbeitsstationen. eine Adresse aus einem dafür vorgesehenen Adresspool dynamisch zuweist. Alle (selbst umfangreiche) Änderungen der Netzwerkadressen oder der -konfiguration können zentral in der Konfigurationsdatei des DHCP-Servers vorgenommen werden. der eine Verbindung zu ihm herstellt. Verwenden Sie NetworkManager nie auf einem Computer. In diesem Fall versucht der DHCP-Server. Wenn Sie auf der Client-Seite den NetworkManager verwenden. dass er jeden Client anhand der Hardware-Adresse seiner Netzwerkkarte (die in den meisten Fällen unveränderlich ist) identifiziert und ständig mit denselben Einstellungen versorgt. Das ist nur möglich. der einen DHCP-Server ausführt. Zum einen kann ein DHCP-Server so konfiguriert werden.

sondern auch das zu verwendende Gateway und die Adressen der Namenserver mitgeteilt.den Netzwerkeinstellungen von einem DHCP-Server ist auch besonders interessant für Notebooks. Wählen Sie in dieser Liste die Schnittstelle aus. z.1 Konfigurieren eines DHCP-Servers mit YaST Beim ersten Starten des Moduls werden Sie von einem Assistenten aufgefordert. Neben IP-Adresse und Netzmaske werden dem Client nicht nur der Computer. einige grundlegende Entscheidungen hinsichtlich der Serveradministration zu treffen. Siehe Abbildung 23. Komplexere Konfigurationsaufgaben können im Expertenmodus ausgeführt werden. 23.1. Im Übrigen können auch etliche andere Parameter zentral konfiguriert werden. 440 Referenz . Wählen Sie anschließend die Option Firewall für gewählte Schnittstelle öffnen.und Domänenname. B. 441). die für einfache Szenarien ausreichend ist. auf der der DHCP-Server lauschen soll. Kartenauswahl Im ersten Schritt ermittelt YaST die in Ihr System eingebundenen Netzwerkschnittstellen und zeigt sie anschließend in einer Liste an. um die Firewall für diese Schnittstelle zu öffnen. Nach Abschluss der anfänglichen Konfiguration ist eine grundlegende Serverkonfiguration verfügbar. oder ein Druckserver. ein Zeitserver. „DHCP-Server: Kartenauswahl“ (S. die regelmäßig in unterschiedlichen Netzwerken verwendet werden. und klicken Sie auf Hinzufügen. von dem die Clients die aktuelle Uhrzeit abrufen können.

DHCP 441 . „DHCP-Server: Globale Einstellungen“ (S. Siehe Abbildung 23.2.1 DHCP-Server: Kartenauswahl Globale Einstellungen In den Eingabefeldern legen Sie die Netzwerkinformationen fest. 442). Gateway-Adressen und Leasing-Zeit. Adresse eines Zeitservers.und Linux-Clients). Adressen eines Druck.Abbildung 23.und WINS-Servers (für gemischte Netzwerkumgebungen mit Windows. Diese sind: Domänenname. die jeder von diesem DHCP-Server verwaltete Client erhalten soll. Adressen der primären und sekundären Namenserver.

442 Referenz . 443). ohne eine Verlängerung der Leasing-Zeit beantragen zu müssen. Alle zu vergebenden Adressen müssen unter eine gemeinsame Netzmaske fallen.2 DHCP-Server: Globale Einstellungen Dynamisches DHCP In diesem Schritt konfigurieren Sie die Vergabe der dynamischen IP-Adressen an Clients. Legen Sie optional auch die maximale Leasing-Zeit fest. Legen Sie abschließend die Leasing-Zeit fest. Hierzu legen Sie einen Bereich von IP-Adressen fest. „DHCP-Server: Dynamisches DHCP“ (S. für die ein Client seine IP-Adresse behalten darf. in dem die zu vergebenden Adressen der DHCP-Clients liegen dürfen. für die eine bestimmte IP-Adresse auf dem Server für einen bestimmten Client reserviert bleibt.Abbildung 23. Siehe Abbildung 23.3.

3 DHCP-Server: Dynamisches DHCP Fertigstellen der Konfiguration und Auswahl des Startmodus Nachdem Sie den dritten Teil des Konfigurationsassistenten abgeschlossen haben. Klicken Sie auf Beenden. Siehe Abbildung 23. B. das sich mit den Startoptionen des DHCPServers befasst. „DHCP-Server: Start“ (S. gelangen Sie in ein letztes Dialogfeld. Hier können Sie festgelegen.4. zu Testzwecken) gestartet werden soll. 444). DHCP 443 . um die Konfiguration des Servers abzuschließen.Abbildung 23. ob der DHCP-Server automatisch beim Booten des Systems oder bei Bedarf manuell (z.

conf steuern lässt.3 Der DHCP-Server dhcpd Das Kernstück des DHCP-Systems ist der dhcpd-Daemon. Für komplexere Situationen greifen Sie auf dhclient von ISC zurück. Das Programm ist sehr einfach in der Handhabung und wird beim Booten des Computers automatisch gestartet.Abbildung 23. Der vom Internet Software Consortium (ISC) herausgegebene DHCP-Server dhcpd stellt die Serverfunktionalität zur Verfügung. um nach einem DHCP-Server zu suchen. Client-seitig können Sie zwischen zwei unterschiedlichen DHCP-Clientprogrammen wählen: dhclient (ebenfalls vom ISC) und der DHCP Client Daemon im Paket dhcpcd. Dieser Server least Adressen und überwacht deren Nutzung gemäß den Vorgaben in der Konfigurationsdatei /etc/ 444 Referenz .4 DHCP-Server: Start 23. dhcpcd wird von SUSE Linux standardmäßig installiert. 23.2 DHCP-Softwarepakete Für SUSE Linux stehen sowohl ein DHCP-Server als auch -Clients bereit. Es kommt ohne eine Konfigurationsdatei aus und funktioniert im Normalfall ohne weitere Konfiguration. das sich über die Konfigurationsdatei /etc/ dhclient.

bevor dieser eine Verlängerung anfordern sollte (default-lease-time).1. das Verhalten des Programms anforderungsgemäß zu beeinflussen.168. Im ersten Abschnitt wird definiert.255. Über die dort definierten Parameter und Werte stehen dem Systemadministrator eine Vielzahl von Möglichkeiten zur Verfügung.1.168.1.255. domain-name-servers 192. broadcast-address 192.0 { range 192. max-lease-time 7200.255.conf. subnet-mask 255.1.0.1.1. } Diese einfache Konfigurationsdatei reicht bereits aus.254. Die Beispieldatei lässt sich in drei Abschnitte unterteilen.255.0 netmask 255. routers 192.168. „Die Konfigurationsdatei „/etc/dhcpd. ohne die dhcpd nicht startet.168.1. ohne für diese eine Verlängerung anfordern zu müssen (max-lease-time).conf““ (S. subnet 192. 445) an. 192. Beispiel 23. Idealerweise sollten Sie vor dem Einrichten von DHCP einen Namenserver auf dem Computer oder im Netzwerk konfigurieren. die zur Auflösung von IP-Adressen in Hostnamen (und umgekehrt) verwendet werden sollen.all".100 192.200.168. Bitte achten Sie insbesondere auf die Semikolons am Ende jeder Zeile.20. range 192.1. Im zweiten Abschnitt werden einige grundsätzliche Netzwerkparameter global festgelegt: • Die Zeile option domain-name enthält die Standarddomäne des Netzwerks.conf in Beispiel 23.1. Weitere Informationen zum Konfi- DHCP 445 . Hier wird auch festgelegt.168. wie lange ein Computer maximal eine vom DHCP-Server vergebene IP-Adresse behalten darf.255. Sehen Sie sich die einfache Beispieldatei /etc/ dhcpd.dhcpd. Dieser Namenserver sollte für jede dynamische Adresse jeweils einen Hostnamen und umgekehrt bereithalten.10 192. option option option option option # 10 minutes # 2 hours domain-name "cosmos.conf“ default-lease-time 600.1. • Mit dem Eintrag option domain-name-servers können Sie bis zu drei Werte für die DNS-Server angeben.168.1 Die Konfigurationsdatei „/etc/dhcpd. wie viele Sekunden eine IP-Adresse standardmäßig an einen anfragenden Client geleast wird.2.1.168. damit der DHCP-Server im Netzwerk IP-Adressen zuweisen kann.168.

Das Domain Name System (DNS) (S.100 und 192. • Mit option routers wird festgelegt. Damit der Daemon die Konfigurationsdateien finden kann.1. wohin der Server Datenpakete schicken soll. Gerade bei kleineren Netzwerken ist dieser Router auch meist mit dem Internet-Gateway identisch.1.20 sowie 192. finden Sie in der zentralen Systemprotokolldatei/var/log/messages meist ebenso Informationen dazu wie auf Konsole 10 ( Strg + Alt + F10 ). In Beispiel 23. Abschließend muss noch ein Adressbereich gewählt werden.conf““ (S.168. Der DHCP-Daemon ist sofort einsatzbereit. 445) können Clients Adressen zwischen 192. • Die Zeile option broadcast-address definiert die Broadcast-Adresse. Auf einem SUSE Linux-Standardsystem wird der DHCP-Daemon aus Sicherheitsgründen in einer chroot-Umgebung gestartet.168. Nach dem Bearbeiten dieser wenigen Zeilen sollten Sie bereits in der Lage sein.1.gurieren eines eigenen Namenservers finden Sie in Kapitel 20. um die Dateien automatisch zu kopieren. Sollte wider Erwarten ein Problem mit der Konfiguration auftreten (z.168. aus dem der DHCP-Daemon IP-Adressen an anfragende Clients vergeben darf. die der anfragende Client verwenden soll. müssen diese in die chroot-Umgebung kopiert werden.1.168. den DHCP-Daemon mit dem Befehl rcdhcpd start zu aktivieren. • Mit option subnet-mask wird die den Clients zugewiesene Netzmaske angegeben. „Die Konfigurationsdatei „/etc/dhcpd. Im letzten Abschnitt der Datei werden ein Netzwerk und eine Subnetzmaske angegeben. B.und Zielhost sowie der Subnetzmaske) nicht im lokalen Netzwerk zugestellt werden können. 446 Referenz .10 und 192. der Server bricht mit einem Fehler ab oder gibt beim Starten nicht done zurück).1. Mit dem Befehl rcdhcpd check-syntax können Sie eine kurze Überprüfung der Konfigurationsdatei vornehmen lassen. In der Regel müssen Sie dazu nur den Befehl rcdhcpd start eingeben.200 zugewiesen werden. die (aufgrund der Adresse von Quell. 399).

fest definierte Zahl aus sechs Oktettpaaren. Solche expliziten Adresszuweisungen haben Vorrang vor dynamischen Adressen aus dem Pool.3. B.conf““ (S. fixed-address 192. 00:00:45:12:EE:F4.21. 447) zur Konfigurationsdatei von Beispiel 23. z.168.2. B. dessen Netzwerkkarte die MAC-Adresse 00:00:45:12:EE:F4 hat. 445) hinzugefügt. „Ergänzungen zur Konfigurationsdatei“ (S. z.2 Ergänzungen zur Konfigurationsdatei host earth { hardware ethernet 00:00:45:12:EE:F4.1. Als Hardwaretyp kommt heutzutage in aller Regel ethernet zum Einsatz. Dies ist eine global eindeutige. } Der Name des entsprechenden Clients (host Hostname.1. wie z.168. Werden die entsprechenden Zeilen.21 und der Hostname „earth“ zugewiesen. wobei durchaus auch das vor allem bei IBM-Systemen häufig zu findende token-ring unterstützt wird. um einem bestimmten Client eine vordefinierte statische Adresse zuzuweisen. über die jedes Netzwerkgerät verfügt. Im Unterschied zu den dynamischen verfallen die statischen Adressinformationen nie. Die Ausgabe sollte in etwa wie folgt aussehen: link/ether 00:00:45:12:EE:F4 Im vorherigen Beispiel wird also dem Client. hier earth) wird in die erste Zeile und die MAC-Adresse wird in die zweite Zeile eingegeben. eth0) ermittelt werden.1 Clients mit statischen IP-Adressen DHCP lässt sich auch verwenden. weist der DHCP-Daemon dem entsprechenden Client immer dieselben Daten zu. automatisch die IP-Adresse 192.1. „Die Konfigurationsdatei „/etc/dhcpd. B. Beispiel 23. Zur Identifizierung eines mit einer statischen Adresse konfigurierten Clients verwendet dhcpd die Hardware-Adresse. DHCP 447 . Auf Linux-Hosts kann die MAC-Adresse mit dem Befehl iplink show gefolgt vom Netzwerkgerät (z. in Beispiel 23. wenn nicht mehr genügend freie Adressen zur Verfügung stehen und deshalb eine Neuverteilung unter den Clients erforderlich ist. B.23.

muss sich die Konfigurationsdatei dhcpd.conf Diese Dateien werden beim Starten des Init-Skripts in das Verzeichnis /var/lib/ dhcp/etc/ kopiert. setzen Sie die Variable DHCPD_RUN_CHROOTED in der Datei /etc/sysconfig/dhcpd auf „no“.3. Wenn in Ihrer Konfiguration weitere Dateien in die chroot-Umgebung kopiert werden müssen. wenn sie durch ein Skript wie /etc/ppp/ip-up dynamisch modifiziert werden. Damit der dhcpd auch in der chroot-Umgebung Hostnamen auflösen kann. müssen außerdem einige weitere Konfigurationsdateien kopiert werden: • /etc/localtime • /etc/host. Damit kann dhcpd unter der Benutzer-ID nobody und in einer chroot-Umgebung (/var/lib/dhcp) ausgeführt werden.conf • /etc/hosts • /etc/resolv. sind jedoch keine Probleme zu erwarten.conf im Verzeichnis /var/ lib/dhcp/etc befinden. können Sie diese mit der Variablen DHCPD_CONF_INCLUDE_FILES in der Datei /etc/sysconfig/dhcpd festlegen. Sie wird vom Init-Skript beim Start automatisch dorthin kopiert. Dieses Verhalten lässt sich über Einträge in der Datei /etc/sysconfig/dhcpd steuern. befindet sich der zusätzliche Eintrag SYSLOGD_ADDITIONAL_SOCKET_DHCP in der Datei /etc/sysconfig/ syslog.2 Besonderheiten bei der SUSE Linux-Version Aus Sicherheitsgründen enthält bei SUSE Linux der DHCP-Server von ISC den nonroot/chroot-Patch von Ari Edelkind. Um den dhcpd ohne chroot-Umgebung laufen zu lassen. Um dies zu ermöglichen. Diese Dateien müssen aktualisiert gehalten werden. Damit der dhcp-Daemon aus der chrootUmgebung heraus auch nach einem Neustart des Syslog-ng-Daemons weiter protokollieren kann. Falls in der Konfigurationsdatei anstelle von Hostnamen nur IP-Adressen verwendet werden.23. 448 Referenz .

dhcpd.leases und dhcp-options.4 Weitere Informationen Weitere Informationen zu DHCP finden Sie auf der Website des Internet Software Consortium (http://www.org/products/DHCP/). dhcpd. DHCP 449 .23. Weitere Informationen finden Sie zudem auf den Manualpages dhcpd.isc.conf.

.

Zudem ermöglicht er die Verwaltung lokaler Referenzuhren. Das Aufrechterhalten der genauen Systemzeit ist in vielen Situationen wichtig. beispielsweise funkgesteuerter Uhren.1 Konfigurieren eines NTP-Client mit YaST xntp ist so voreingestellt. beispielsweise Datenbanken. 24. In einem Netzwerk muss in der Regel die Systemzeit aller Computer synchronisiert werden. von der manuellen Zeitanpassung wird jedoch dringend abgeraten. xntp stellt einen Mechanismus zur Lösung dieser Probleme bereit. SUSE Linux ermöglicht die Konfiguration eines Zeitsynchronisierung mit NTP 451 . Die integrierte Hardware-Uhr (BIOS-Uhr) erfüllt häufig nicht die Anforderungen bestimmter Anwendungen. Das Verwenden der (BIOS-) Uhr ist jedoch nur eine Ausweichlösung. der als zuverlässige Zeitquelle gilt. dass die lokale Computeruhr als Zeitreferenz verwendet wird. das Zurückstellen kann beispielsweise zu Fehlfunktionen wichtiger Anwendungen führen. Erstens kann ein Computer die Zeit von einem Server abrufen.Zeitsynchronisierung mit NTP 24 Der NTP-(Network Time Protocol-)Mechanismus ist ein Protokoll für die Synchronisierung der Systemzeit über das Netzwerk. Die manuelle Korrektur der Systemzeit würde schwerwiegende Probleme nach sich ziehen. Er passt die Systemzeit ständig anhand zuverlässiger Zeitserver im Netzwerk an. Zweitens kann ein Computer selbst für andere Computer im Netzwerk als Zeitquelle fungieren. Es gibt zwei Ziele – das Aufrechterhalten der absoluten Zeit und das Synchronisieren der Systemzeit aller Computer im Netzwerk. wenn keine genauere Zeitquelle verfügbar ist.

um in einem zweites Dialogfeld einen geeigneten Zeitserver für Ihr Netzwerk auszuwählen. Bei einem lokalen Zeitserver klicken Sie auf Lookup. 24. (Zufallsserver verwenden). Beide Konfigurationstypen werden nachfolgend erläutert. ob die Zeitsynchronisierung anhand eines Zeitservers in Ihrem lokalen Netzwerk (Lokaler NTP-Server) oder eines Zeitservers im Internet erfolgen soll. Für Clients. haben Sie die Wahl zwischen der Schnellkonfiguration und der komplexen Konfiguration. klicken Sie auf Beim Systemstart. der Ihre Zeitzone verwaltet (Öffentlicher NTP-Server). Klicken Sie auf Use Random Server. Geben Sie dann die NTP-Server-Konfiguration an.NTP-Client mit YaST. Wenn xntpd automatisch beim Booten des Systems gestartet werden soll. um eine SLP- 452 Referenz . Abbildung 24. da diese Teil eines geschützten Intranets sind. oder auf Wählen.1 Schnelle NTP-Client-Konfiguration Die einfache NTP-Client-Konfiguration (Network Services (Netzwerkdienste) → NTP Client NTP-Client) umfasst zwei Dialogfelder.1. Im ersten Dialogfeld legen Sie den StartModus für xntpd und den abzufragenden Server fest... die SuSEfirewall ausführen.1 YaST: Konfigurieren eines NTP-Client Geben Sie im Dialogfeld für die detaillierte Serverauswahl an. wenn Sie keinen lokalen Zeitserver verwenden können.

ob xntpd in Chroot-Jail gestartet werden soll. Abbildung 24. Zeitsynchronisierung mit NTP 453 . Wählen Sie den am besten geeigneten Zeitserver in der Liste der Suchergebnisse aus und schließen Sie das Dialogfeld mit OK.1. Mit NTP-Daemon über DHCP konfigurieren wird der NTP-Client so eingerichtet.Abfrage für verfügbare Zeitserver in Ihrem Netzwerk zu starten. da der Angreifer daran gehindert wird.2 Komplexe NTP-Client-Konfiguration Der Zugriff auf die komplexe Konfiguration eines NTP-Client ist unter Komplexe Konfiguration im Hauptdialogfeld des Moduls NTP-Client möglich (siehe Abbildung 24. Hierdurch wird die Sicherheit im Falle eines Angriffs über xntpd erhöht. dass eine Liste der in Ihrem Netzwerk verfügbaren NTP-Server über DHCP (Dynamic Host Configuration Protocol) abgerufen wird.2 YaST: Komplexe NTP-Client-Konfiguration Legen Sie unter Komplexe Konfiguration des NTP-Clients fest. Im Hauptdialogfeld testen Sie die Verfügbarkeit des ausgewählten Servers mit Test und schließen das Dialogfeld mit Beenden. „YaST: Konfigurieren eines NTP-Client“ (S. 452)). zunächst muss jedoch wie in der schnellen Konfiguration beschrieben ein Start-Modus ausgewählt werden. 24. Bei einem öffentlichen Zeitserver wählen Sie in der Liste unter Öffentlicher NTP-Server Ihr Land (Ihre Zeitzone) sowie einen geeigneten Server aus und schließen das Dialogfeld dann mit OK. das gesamte System zu beeinträchtigen.1.

Wählen Sie im nachfolgenden Dialogfeld den Quellentyp aus. Gerätename und weitere Optionen in diesem Dialogfeld ein. „Schnelle NTP-Client-Konfiguration“ (S. zur Verfügung steht.Die Server und anderen Zeitquellen für die Abfrage durch den Client sind im unteren Bereich aufgelistet. Bearbeiten Sie diese Liste nach Bedarf mithilfe der Optionen Hinzufügen.1. wenn Ihnen eine zuverlässige Zeitquelle. Funkuhr Wenn eine Funkuhr für die Zeitsynchronisierung in Ihrem System verwendet werden soll. etwa eine funkgesteuerte Uhr. Klicken Sie auf Treiber-Kalibirierung. Peer Ein Peer ist ein Computer. um den Treiber genauer einzustellen. Die Option für Broadcasts sollte nur aktiviert werden. Die folgenden Optionen stehen zur Verfügung: Server In einem anderen Dialogfeld können Sie einen NTP-Server auswählen (siehe Beschreibung unter Abschnitt 24. Aktivieren Sie Für initiale Synchronisierung verwenden. 454 Referenz . um eine neue Quelle für Zeitinformationen hinzuzufügen. um die Synchronisierung der Zeitinformationen zwischen dem Server und dem Client auszulösen. In einem Eingabefeld können Sie zusätzliche Optionen für xntpd angeben. 452)). Der Rest des Dialogfelds ist mit dem Dialogfeld Server identisch. Klicken Sie auf Hinzufügen. mit dem eine symmetrische Beziehung eingerichtet wird: Er fungiert sowohl als Zeitserver wie auch als Client. an die Broadcasts gesendet werden sollen. Geben Sie in diesem Dialogfeld die Adresse ein. Ausgangs-Broadcast Zeitinformationen und Abfragen können im Netzwerk auch per Broadcast übermittelt werden. Ziehen Sie bezüglich detaillierter Informationen /usr/share/ doc/packages/xntp-doc zurate (Bestandteil des xntp-doc-Pakets). geben Sie die Adresse des Systems ein. geben Sie Uhrtyp. mit dem die Zeitsynchronisierung vorgenommen werden soll.1. Mit Protokoll anzeigen können die Protokolldateien Ihres Clients angezeigt werden.htm. Gerätezahl. Bearbeiten und Löschen. wenn das System gebootet wird. Wenn Sie einen Peer im selben Netzwerk anstelle eines Servers verwenden möchten. Detaillierte Informationen zum Betrieb einer lokalen Funkuhr finden Sie in /usr/share/doc/packages/xntp-doc/html/refclock .

Wenn ein oder mehrere bekannte Zeitserver exklusiv verwendet werden sollen. geben Sie die Namen in der Zeile ein. fügen Sie zusätzliche Zeilen mit dem Schlüsselwortserver hinzu. Zweitens kann der Client auf NTP-Broadcasts warten. Die Korrektur kommt umgehend zum Einsatz und führt zu einer größeren Stabilität der Systemzeit. Der NTP-Mechanismus kann auf zwei unterschiedliche Arten als Client verwendet werden: Erstens kann der Client die Zeit in regelmäßigen Intervallen von einem bekannten Server abfragen. sobald der Computer eingeschaltet wird.conf ein. Serverparameter festzulegen. der falsche Informationen sendet. Dieser Ansatz hat den Nachteil.Eingangs-Broadcast Wenn Ihr Client die entsprechenden Informationen per Broadcast erhalten soll. indem Sie die Zeile server ntp. 24. geben Sie in diesen Feldern die Adresse ein. Nach der Initialisierung von xntpd mit dem Befehl rcntpd start dauert es etwa eine Stunde. Geben Sie in diesem Fall die Zeile broadcastclient in der Konfigurationsdatei /etc/ ntp. Wenn Sie weitere Zeitserver hinzufügen möchten.2 Konfigurieren von xntp im Netzwerk Die einfachste Art der Verwendung eines Zeitservers im Netzwerk besteht darin.example. kann dies zu einer starken Auslastung des Servers führen. Wenn viele Clients vorhanden sind. ergänzen Sie die Datei /etc/ ntp. Zeitsynchronisierung mit NTP 455 . Wenn beispielsweise ein Zeitserver mit der Bezeichnung ntp.example. zu schwerwiegenden Problemen führen kann.com vom Netzwerk aus erreichbar ist. Mithilfe der DriftDatei kann der systematische Fehler der Hardware-Uhr berechnet werden. Wenn die Zeit per Broadcast ermittelt wird. ist der Servername nicht erforderlich.conf um seinen Namen. die mit servers beginnt. die von Broadcast-Zeitservern im Netzwerk gesendet werden. von der die jeweiligen Pakete akzeptiert werden sollen. dass die Qualität des Servers unbekannt ist und dass ein Server. bis die Zeit stabil ist und die DriftDatei für das Korrigieren der lokalen Computeruhr erstellt wird.com hinzufügen.

Zu diesem Zweck werden Ihnen spezielle IPAdressen im Format 127. Die Datei /usr/share/doc/ packages/xntp-doc/html/refclock. auf denen die Treiberparameter beschrieben werden.conf eingegeben. Die Datei /usr/share/doc/packages/xntp-doc/ html/driverNN.t. als ob sie im Netzwerk vorhanden wären. Hierbei steht t für den Uhrentyp und bestimmt.0 mode 5 prefer Für andere Uhren gilt dasselbe Muster.htm (NN steht für die Anzahl der Treiber) bietet Informationen zu dem bestimmten Uhrentyp. Wenn diese Uhr als bevorzugte Referenz verwendet werden soll. Im Regelfall verfügen die einzelnen Treiber über spezielle Parameter. Im Anschluss an die Installation des xntp-doc-Pakets steht die Dokumentation für xntp im Verzeichnis /usr/share/ doc/packages/xntp-doc/html zur Verfügung. welcher Treiber verwendet wird.u zugewiesen. u steht für die Einheit (unit). In xntp erfolgt die eigentliche Konfiguration mithilfe von Pseudo-IPs. Für die Uhr vom „Typ 8“ (Funkuhr über serielle Schnittstelle) ist ein zusätzlicher Modus erforderlich. Eine Liste unterstützter Uhren steht im Paket xntp-doc in der Datei /usr/share/doc/ packages/xntp-doc/html/refclock. der die Uhr genauer angibt. Die vollständige server-Zeile für ein Conrad DCF77-Empfängermodul sieht folgendermaßen aus: server 127. die die Konfigurationsdetails beschreiben. Jeder Treiber ist mit einer Nummer verknüpft.127. 456 Referenz .3 Einrichten einer lokalen Referenzuhr Das Software-Paket xntp enthält Treiber für das Verbinden lokaler Referenzuhren.24. Die Uhren werden so in die Datei /etc/ntp.127.htm zur Verfügung. die die verwendete Schnittstelle bestimmt.htm enthält Links zu den Treiberseiten. geben Sie das Schlüsselwort prefer an.8. Das Conrad DCF77-Empfängermodul weist beispielsweise Modus 5 auf.

Es sind zwar mehrere Implementierungen des LDAPProtokolls möglich. von dem aus sie über ein bestimmtes Protokoll an alle Clients verteilt werden. der Informationen wie die Gelben Seiten in gut strukturierter und schnell durchsuchbarer Form enthält. das so viele verschiedene Client-Anwendungen wie möglich auf diese Informationen zugreifen können. In einer Netzwerkumgebung ist es entscheidend. Dies kann mit einem Verzeichnisdienst erreicht werden. LDAP kann für viele Zwecke. Mithilfe eines offenen und standardisierten Protokolls wie LDAP wird sichergestellt. die wichtigen Informationen strukturiert anzuordnen und schnell zur Verfügung zu stellen. in diesem Kapitel wird jedoch ausschließlich die OpenLDAPImplementierung behandelt. So ist es nicht erforderlich. wie Benutzer.und Gruppenverwaltung.und Suchvorgänge optimiert wurde: LDAP – Ein Verzeichnisdienst 457 . Dadurch wird der Verwaltungsaufwand für die Daten erheblich reduziert. dass zahlreiche Anwendungen darauf zugreifen können. Die Daten sind so strukturiert. Systemkonfigurationsverwaltung und Adressverwaltung eingesetzt werden. für jedes einzelne Kalenderwerkzeug und jeden E-Mail-Client eine eigene Datenbank zu speichern. da stattdessen auf ein zentrales Repository zugegriffen werden kann. die für schnelle und effektive Lese. Dieses Kapitel enthält die Grundlagen zum Verständnis der Funktionsweise von OpenLDAP und zur Verwaltung von LDAP-Daten mit YaST. Im Idealfall sind die Daten auf einem zentralen Server in einem Verzeichnis gespeichert.LDAP – Ein Verzeichnisdienst 25 Bei Lightweight Directory Access Protocol (LDAP) handelt es sich um eine Reihe von Protokollen für den Zugriff auf und die Verwaltung von Datenverzeichnissen. In diesem Kontext ist ein Verzeichnis eine Art Datenbank.

Kurzfristige Inkonsistenzen der Daten sind in Verzeichnissen in gewissem Maße akzeptabel. • Bei der Verwaltung statischer Daten werden die vorhandenen Datengruppen nur selten aktualisiert. wird ein Verzeichnisdienst zur Verwaltung der statischen Informationen eingesetzt. Novell NDS. müssen ihn schnell und einfach aufrufen können. Mit dem X. Microsoft ADS. Wenn ein Betrag an einer Stelle subtrahiert und an einer anderen Stelle addiert werden soll. Daten in einer herkömmlichen Datenbank werden in der Regel häufig geändert (dynamische Daten). kommt der Datenkonsistenz höchste Priorität zu. In der Zwischenzeit wurde LDAP weiter entwickelt und vermehrt als eigenständige Lösung ohne X. Mithilfe von TCP/IP können Schnittstellen zwischen einer Anwendung und dem LDAP-Dienst wesentlich leichter hergestellt werden. In Unix und außerhalb von Unix gibt es zahlreiche Verzeichnisdienste. ein möglichst großes Datenvolumen in kurzer Zeit verarbeiten zu können. LDAP ist eine weniger umfassende Version von DAP. sodass die Verwendung von verteilten 458 Referenz . LDAP sollte ursprünglich als schlankere Version von DAP. ohne die X. Das Design eines Verzeichnisdiensts wie LDAP ist nicht für die Unterstützung solch komplexer Aktualisierungs. Herkömmliche Datenbanken sind speziell dafür bestimmt. Beim Arbeiten mit dynamischen Daten.500Eintragshierarchie zu verlieren.und Abfragemechanismen bestimmt. Alle Anwendungen. Banyan's Street Talk und der OSI-Standard X. dienen. • Da der Schreibzugriff nur eingeschränkt möglich ist. die sich normalerweise nicht ändern. die auf diesen Dienst zugreifen.• Damit mehrere (gleichzeitige) Lesevorgänge möglich sind. müssen beide Vorgänge innerhalb einer Transaktion gleichzeitig erfolgen. LDAP unterstützt Verweise mit LDAPv3 (die Protokollversion im Paket openldap2). In Verzeichnissen ist dies jedoch nicht der Fall. insbesondere wenn daran Datengruppen wie Bankkonten oder Buchhaltung beteiligt sind.500-Unterstützung eingesetzt. Sie können die plattformübergreifenden Funktionen von LDAP nutzen und Ressourcen sparen.500Standard wird die hierarchische Anordnung von Verzeichniseinträgen gesteuert. Diese Art von Transaktionen wird von Datenbanken unterstützt. um das Gleichgewicht des Datenbestandes aufrecht zu erhalten.500 entwickelten Verzeichniszugriffsprotokoll.500 sind nur einige Beispiele. So werden die Telefonnummern in einem Unternehmensverzeichnis beispielsweise nicht so häufig geändert wie die in der Buchhaltung verwalteten Zahlen. dem für den Zugriff auf X. ist der Schreibzugriff nur auf eine geringe Anzahl an Aktualisierungen durch den Administrator beschränkt.

auf die Datenabfrage von X. Es eignet sich nicht als Tool zur zentralen Datenadministration in heterogenen Netzwerken.500-Servern beschränkt. Die in den Dateien unter /etc und in den Verzeichnissen group. Diese Dateien können ohne größeren Aufwand verwaltet werden. netgroup. Das openldap2-Paket besteht aus folgenden Komponenten: slapd Ein eigenständiger LDAPv3-Server. Zusätzliche Tools für die Systemwartung slapcat. Windows-Server (ab 2000) unterstützten LDAP als Verzeichnisdienst. slapindex 25. mail. wie ursprünglich vorgesehen. LDAP ist nicht. rpc und services enthaltenen Konfigurationsdaten werden über Clients im ganzen Netzwerk verteilt. hosts. Auch die Verwendung von SASL (Simple Authentication and Security Layer) wurde neu eingeführt. auf dem Objektdaten in einer lokalen Datenbank gespeichert werden können. networks. Es ist ein Open Source-Server. Im Gegensatz zu NIS ist die Verwendung des LDAP-Diensts nicht auf reine UnixNetzwerke beschränkt. printcap. slapadd. Auch Novell bietet einen LDAP-Dienst an. Die oben erwähnten Anwendungsaufgaben werden zusätzlich in Nicht-Unix-Systemen unterstützt. LDAP – Ein Verzeichnisdienst 459 . mit dem Objektdaten in einer BerkeleyDBbasierten Datenbank verwaltet werden. NIS ist nur für Unix-Plattformen bestimmt. vorhanden. Darüber hinaus können über die Erweiterung slurpd mehrere LDAP-Server reproduziert werden.1 LDAP und NIS Der Unix-Systemadministrator verwendet für die Namenauflösung und die Datenverteilung in einem Netzwerk in der Regel NIS. slurpd Dieses Programm ermöglicht die Reproduktion von Datenänderungen auf dem lokalen LDAP-Server auf anderen im Netzwerk installierten LDAP-Servern. passwd. slapd. Die Verarbeitung größerer Datenmengen wird aufgrund der fehlenden Strukturierung jedoch immer schwieriger. protocols. da es sich hierbei um einfache Textdateien handelt.Datenbanken unterstützt wird.

da LDAP im Gegensatz zu NIS erweiterungsfähig ist. sendmail) • Adressbücher für Mail-Clients. c (Land). 460 Referenz .Das LDAP-Prinzip lässt sich auf jede beliebige Datenstruktur anwenden. die zentral verwaltet werden soll. Ein einzelner Knoten im Pfad dieses Eintrags wird relativer eindeutiger Name oder RDN (relative distinguished name) genannt. Der vollständige Pfad zum gewünschten Eintrag. Nachfolgend einige Anwendungsbeispiele: • Verwendung als Ersatz für den NIS-Dienst • Mail-Routing (postfix. Diese Hierarchie wird als Verzeichnisinformationsbaum (DIT. Durch die klar definierte hierarchische Datenstruktur wird die Verwaltung großer Datenmengen erleichtert. 25. Alle Einträge (auch „Objekte“ genannt) des Verzeichnisses verfügen über eine festgelegte Position innerhalb dieser Hierarchie. wie Mozilla. Objekte können im Allgemeinen einem von zwei möglichen Typen zugewiesen werden: Container Diese Objekte können wiederum andere Objekte enthalten. ou (organisatorische Einheit) und dc (Domänenkomponente). Solche Objektklassen sind beispielsweise root (das Stammelement des Verzeichnisbaums. durch den der Eintrag eindeutig identifiziert wird. das in der Regel nicht vorhanden ist).2 Struktur eines LDAP-Verzeichnisbaums Ein LDAP-Verzeichnis weist eine Baumstruktur auf. da die Daten besser durchsucht werden können. Dieses Modell ist mit Verzeichnissen (Ordnern) in einem Dateisystem vergleichbar. wird als eindeutiger Name oder DN (Distinguished Name) bezeichnet. Evolution und Outlook • Verwaltung von Zonenbeschreibungen für einen BIND9-Namenserver • Benutzerauthentifizierung mit Samba in heterogenen Netzwerken Diese Liste lässt sich erweitern. Directory Information Tree) bezeichnet.

461) gezeigt wird. Auf der obersten Ebene in der Verzeichnishierarchie steht das Stammelement root. erfolgt anhand eines Schemas. welche Attribute des betreffenden Objekts zugewiesen werden müssen bzw. Mit der Objektklasse wird festgelegt. Die Einträge auf allen drei Ebenen werden dargestellt. Es gibt einige häufig verwendeten Schemata (siehe RFC 2252 und 2256).dc=de hinzugefügt wird. benutzerdefinierte Schemata zu erstellen LDAP – Ein Verzeichnisdienst 461 .dc=de. Daher muss ein Schema die Definitionen aller Objektklassen und Attribute enthalten.dc=suse. die im gewünschten Anwendungsszenario verwendet werden. Hierin können die untergeordneten Elemente c (Land). Die Bezüge innerhalb eines LDAP-Verzeichnisbaums werden im folgenden Beispiel verdeutlicht. Der vollständige gültige eindeutige Name für den fiktiven SUSE-Mitarbeiter Geeko Linux lautet in diesem Fall cn=Geeko Linux.1. das in Abbildung 25. indem dem RDN cn=Geeko Linux der DN des vorhergehenden Eintrags ou=doc. „Struktur eines LDAP-Verzeichnisses“ (S. können. Beispiele: person. Die allgemeine Festlegung der Objekttypen. dc (Domänenkomponente) oder o (Organisation) enthalten sein. Der Objekttyp wird durch die Objektklasse bestimmt. die im DIT gespeichert werden sollen. Er wird zusammengesetzt.dc=suse.1 Struktur eines LDAP-Verzeichnisses Das vollständige Diagramm umfasst einen Beispiel-Verzeichnisbaum.ou=doc. Es besteht jedoch die Möglichkeit. InetOrgPerson oder groupofNames. Abbildung 25.Blatt Diese Objekte befinden sich am Ende einer Verzweigung und verfügen nicht über untergeordnete Objekte. Jeder Eintrag entspricht einem Feld im Bild.

und über die erforderlichen Attribute und gültigen Attributwerte.oder mehrere einander ergänzende Schemata zu verwenden.core“ (S. 462 Referenz . 462) erhalten Sie einen kurzen Überblick über die Objektklassen von core. dies erfordert.1. „Häufig verwendete Objektklassen und Attribute“ (S. „Ausschnitt aus schema. In Tabelle 25.schema. Tabelle 25. 463) wird ein Ausschnitt einer Schemadirektive mit entsprechenden Erklärungen dargestellt (die Zeilen sind für Erklärungszwecke nummeriert).organizationalUnit (organisato.Geeko Linux ne Daten für das Intranet oder Internet) ou sn und cn In Beispiel 25. die im Beispiel verwendet werden.1.schema und inetorgperson. in der der LDAP-Server verwendet werden soll.1 Objektklasse Häufig verwendete Objektklassen und Attribute Bedeutung Beispieleintrag suse Erforderliche Attribute dc dcObject domainComponent (Name der Domänenkomponenten) organizationalU.doc nit rische Einheit) inetOrgPerson inetOrgPerson (personenbezoge. sofern die Umgebung.

In der mit MAY beginnenden Zeile 8 werden die Attribute aufgeführt.5 NAME 'organizationalUnit' #5 DESC 'RFC2256: an organizational unit' #6 SUP top STRUCTURAL #7 MUST ou #8 MAY (userPassword $ searchGuide $ seeAlso $ businessCategory $ x121Address $ registeredAddress $ destinationIndicator $ preferredDeliveryMethod $ telexNumber $ teletexTerminalIdentifier $ telephoneNumber $ internationaliSDNNumber $ facsimileTelephoneNumber $ street $ postOfficeBox $ postalCode $ postalAddress $ physicalDeliveryOfficeName $ st $ l $ description) ) . Zeile 2 enthält eine kurze mit DESC gekennzeichnete Beschreibung des Attributs..11 NAME ( 'ou' 'organizationalUnitName') #2 DESC 'RFC2256: organizational unit this object belongs to' #3 SUP name ) . Zeile 1 enthält den Namen des Attributs. Hier wird der entsprechende RFC.5.html zu finden. die im Zusammenhang mit dieser Objektklasse zulässig sind. die in Verbindung mti einem Objekt vom Typ organizationalUnit verwendet werden müssen. #4 objectclass ( 2. dass diese Objektklasse keiner anderen Objektklasse untergeordnet ist. Der Attributtyp organizationalUnitName und die entsprechende Objektklasse organizationalUnit dienen hier als Beispiel.Beispiel 25. Wenn Sie OpenLDAP installiert haben. Der Ausdruck SUP in Zeile 3 weist auf einen untergeordneten Attributtyp an.. den eindeutigen OID (Object Identifier) (numerisch) und die Abkürzung des Attributs. erwähnt.4. Die Definition der Objektklasse organizationalUnit beginnt in Zeile 4 wie die Definition des Attributs mit einem OID und dem Namen der Objektklasse. Eine sehr gute Einführung in die Verwendung von Schemata finden Sie in der Dokumentation zu OpenLDAP.6. dem das Attribut angehört..1 Ausschnitt aus schema. In Zeile 7 werden. In Zeile 6 mit dem Eintrag SUP top wird angegeben. alle Attributtypen aufgeführt. mit MUST beginnend. LDAP – Ein Verzeichnisdienst 463 .core #1 attributetype (2..5. auf dem die Definitition basiert. Zeile 5 enthält eine kurze Beschreibung der Objektklasse. ist sie unter /usr/ share/doc/packages/openldap2/admin-guide/index.

25. Der Eintrag core. 464) dargestellte Direktive in slapd.conf Das installierte System enthält unter /etc/openldap/slapd.conf eine vollständige Konfigurationsdatei für den LDAP-Server. Beispiel 25.schema ist erforderlich.schema /etc/openldap/schema/inetorgperson. sind nicht aktiv.25. Dieser Direktive werden zusätzliche erforderliche Schemata angefügt. „slapd.1 Globale Direktiven in slapd.3 Serverkonfiguration mit slapd.conf Beispiel 25.schema /etc/openldap/schema/cosine.2 slapd.pid argsfile /var/run/slapd/slapd.conf: Include-Direktive für Schemata include include include include include /etc/openldap/schema/core. 464 Referenz . um sie zu aktivieren.args Diese beiden Dateien enthalten die PID (Prozess-ID) und einige Argumente.conf gibt das Schema an.schema Diese erste in Beispiel 25.schema /etc/openldap/schema/yast. Die einzelnen Einträge und die erforderlichen Anpassungen werden hier kurz beschrieben.conf: pidfile und argsfile pidfile /var/run/slapd/slapd.conf: Include-Direktive für Schemata“ (S.3. Einträge. denen ein Rautenzeichen (#) vorangestellt wurde. Hier müssen keine Änderungen vorgenommen werden. Dieses Kommentarzeichen muss entfernt werden.schema /etc/openldap/schema/rfc2307bis.2. mit denen der slapd-Prozess gestartet wird. Die entsprechenden Informationen finden Sie in der vorhandenen Dokumentation zu OpenLDAP. anhand dessen das LDAPVerzeichnis organisiert wird.3 slapd.

verfügen alle Benutzer über Lesezugriff auf das Verzeichnis. Darüber hinaus besteht die Möglichkeit.Beispiel 25. sofern keine benutzerdefinierten Zugriffsregeln im datenbankspezifischen Abschnitt festgelegt werden.4 slapd.4. Die in LDAP – Ein Verzeichnisdienst 465 . mit dem die Zugriffsberechtigungen für das LDAP-Verzeichnis auf dem Server gesteuert werden. auf das Zugriff gewährt wird. Allgemeine Regeln sollten nach den spezifischeren Regeln angegeben werden – die erste von slapd als gültig eingestufte Regel wird bewertet und alle folgenden Einträge werden ignoriert.conf: Zugriffssteuerung“ (S. slapd wertet alle Regeln in der Reihenfolge aus. nur der Administrator (rootdn) hat jedoch Schreibberechtigung für dieses Verzeichnis.conf vorgenommenen Einträge sind gültig. Auch hier bricht slapd die Bewertung nach der ersten Übereinstimmung ab. Bereiche des Verzeichnisbaums mit einer Regel durch die Verwendung regulärer Ausdrücke zu verarbeiten. the default is: # Allow read by all # # rootdn can always write! In Beispiel 25.conf: Zugriffssteuerung # Sample Access Control # Allow read access of root DSE # Allow self write access # Allow authenticated users read access # Allow anonymous users to authenticate # access to dn="" by * read access to * by self write by users read by anonymous auth # # if no access controls are present.conf dargestellt. Folgende Tipps dienen als Unterstützung: • Jede Zugriffsregel weist folgende Struktur auf: access to <what> by <who> <access> • what ist ein Platzhalter für das Objekt oder Attribut. Einzelne Verzweigungen des Verzeichnisses können explizit mit separaten Regeln geschützt werden. Die hier im globalen Abschnitt von slapd. Hier können reguläre Ausdrücke verwendet werden. in der sie in der Konfigurationsdatei angegeben sind. Wie hier dargestellt. „slapd. 465) ist der Ausschnitt der Datei slapd. sodass die spezifischeren Regeln vor den allgemeineren Regeln angegeben werden sollten. wer Zugriff auf die mit what angegebenen Bereich erhalten soll. Durch diese Regeln würden die globalen Deklarationen außer Kraft gesetzt. Die Zugriffssteuerung in LDAP ist ein hochkomplexer Prozess. • Mit who wird festgelegt.

„Zugriffstypen“ (S.3 Tag none auth compare search read write Zugriffstypen Umfang des Zugriffs Kein Zugriff Für die Verbindung zum Server Für Objekt für Vergleichszugriff Für den Einsatz von Suchfiltern Lesezugriff Schreibzugriff 466 Referenz . die mit dem regulären Ausdruck übereinstimmen • Mit access wird der Zugriffstyp angegeben.Tabelle 25. „Benutzergruppen und ihre Zugriffsberechtigungen“ (S.2 Tag * anonymous users self dn.2. 466) dargestellten Einträge sind möglich. 466) angegebenen Optionen.3. Verwenden Sie die in Tabelle 25.regex=<regex> Benutzergruppen und ihre Zugriffsberechtigungen Umfang Alle Benutzer ohne Ausnahme Nicht authentifizierte („anonyme“) Benutzer Authentifizierte Benutzer Mit dem Zielobjekt verbundene Benutzer Alle Benutzer. Tabelle 25. Tabelle 25.

conf: Beispiel für die Zugriffssteuerung“ (S. Access Control Information) zur Verfügung. stehen Zugriffssteuerungsinformationen (ACI.5.regex="cn=administrator. TIPP: Festlegen von Zugriffsregeln Falls keine access to-Regel oder keine passende by-Direktive vorhanden ist. wird der Zugriff verweigert.org/ faq/data/cache/758. die mithilfe von regulären Ausdrücken beliebig entwickelt werden kann. dass nur der jeweilige Administrator Schreibzugriff auf einen einzelnen ou-Eintrag erhält. Wenn der Client ein höheres Recht als die in den Regeln deklarierten Rechte anfordert. wird ihm der Zugriff verweigert.]+). Weitere Informationen hierzu erhalten Sie unter http://www.dc=suse. wenn in den Regeln ein höheres als das angeforderte Recht oder gleichwertiges Recht festgelegt ist.dc=de" write by user read by * none Mit dieser Regel wird festgelegt.dc=de" by dn. Diese Art der Zugriffssteuerung wird noch selten verwendet und von Entwicklern als experimentell betrachtet. LDAP – Ein Verzeichnisdienst 467 . wird das Standardprinzip mit Schreibzugriff für den Administrator und Lesezugriff für alle anderen Benutzer angewendet. 467) ist ein Beispiel einer einfachen Zugriffssteuerung dargestellt. Alle anderen authentifizierten Benutzer verfügen über Lesezugriff und alle sonstigen Benutzer haben kein Zugriffsrecht. Detaillierte Informationen hierzu und eine Beispielkonfiguration für LDAP-Zugriffsrechte finden Sie in der Online-Dokumentation zum installierten openldap2-Paket.conf gewährten Rechten. Nur explizit deklarierte Zugriffsrechte werden erteilt. Mit ACI können Zugriffsdaten für einzelne Objekte innerhalb des LDAP-Baums gespeichert werden.conf: Beispiel für die Zugriffssteuerung access to dn. Neben der Möglichkeit.html. Beispiel 25.5 slapd. Zugriffsberechtigungen über die zentrale Serverkonfigurationsdatei (slapd. Dem Client wird Zugriff gewährt. „slapd. Wenn gar keine Regeln deklariert sind.regex="ou=([^.slapd vergleicht das vom Client angeforderte Zugriffsrecht mit den in slapd .dc=suse.ou=$1.openldap.conf) zu verwalten. In Beispiel 25.

should # be avoided.2 Datenbankspezifische Direktiven in slapd.dc=de" rootdn "cn=admin. Anstelle von secret kann hier auch der mit slappasswd erstellte Hash-Wert des Administratorpassworts eingegeben werden. die im Transaktionsprotokoll gespeichert wird. Mode 700 recommended. nach denen die Benutzer am häufigsten suchen.dc=suse.6. können hier je nach Erfahrung hinzugefügt werden. wer für diesen Server über Administratorrechte verfügt. directory /var/lib/ldap # Indices to maintain index objectClass eq Der Datenbanktyp. für welchen Teil des LDAP-Baums dieser Server verantwortlich sein soll. Hiermit wird auch die Zeit (in Minuten) bestimmt. in dem die Datenbankverzeichnisse auf dem Server gespeichert sind. in diesem Fall eine Berkeley-Datenbank.conf: Datenbankspezifische Direktiven“ (S.3.conf Beispiel 25.conf(5) for details. Attribute. 468 Referenz . especially for the rootdn.6 slapd.dc=de" # Cleartext passwords. Die an dieser Stelle für die Datenbank festgelegten benutzerdefinierten Regeln für Access können anstelle der globalen Access-Regeln verwendet werden. Mit suffix wird angegeben. Die directory-Direktive gibt das Verzeichnis (im Dateisystem) an. wird in der ersten Zeile dieses Abschnitts festgelegt (siehe Beispiel 25. rootpw secret # The database directory MUST exist prior to running slapd AND # should only be accessible by the slapd/tools. 468)).25. See slappasswd(8) and slapd. # Use of strong authentication encouraged. Das Administratorpasswort wird mit rootpw festgelegt. bevor die Daten in die tatsächliche Datenbank geschrieben werden. „slapd. Der hier angegebene Benutzer muss nicht über einen LDAP-Eintrag verfügen und nicht als regulärer Benutzer vorhanden sein. Mit cachesize wird die Anzahl der im Zwischenspeicher der Datenbank gespeicherten Objekte festgelegt. die zwischen zwei Schreibvorgängen vergeht. Mit checkpoint wird die Datenmenge (in KB) festgelegt.conf: Datenbankspezifische Direktiven database bdb checkpoint 1024 5 cachesize 10000 suffix "dc=suse. index objectClass eq veranlasst die Wartung eines Indizes aller Objektklassen. Mit dem darauf folgenden rootdn wird festgelegt. Die letzte Direktive.

Durch Eingabe des Befehls rcldap stop können Sie den Server manuell anhalten.conf deklarierten Schemadateien finden Sie die verfügbaren Objektklassen und Attribute.1 Einfügen von Daten in ein LDAP-Verzeichnis Sobald die Konfiguration des LDAP-Servers in /etc/openldap/lsapd.4 Datenbehandlung im LDAP-Verzeichnis In OpenLDAP stehen eine Reihe von Werkzeugen für die Datenverwaltung im LDAPVerzeichnis zur Verfügung. die eine beliebige Anzahl an Attribut-Wert-Paaren enthalten kann. In OpenLDAP steht hierfür der Befehl ldapadd zur Verfügung. 469) beschriebenen Muster vorgenommen wurden. Zu diesem Zweck kann LDAP das LDIF-Format (LDAP Data Interchange Format) verarbeiten.3. In den in slapd. rootdn.conf richtig und einsatzbereit ist (sie enthält die richtigen Einträge für suffix. Die vier wichtigsten Werkzeuge für Hinzufüge-. die entsprechenden Verknüpfungen zu den Start. Den Status des laufenden LDAP-Servers fragen Sie mit rcldap status ab. rootpw und index).und Anhaltskripts mit dem Befehl insserv über die Befehlszeile zu erstellen. starten Sie den LDAP-Server als root.2. sollten Sie aus praktischen Gründen die Objekte als Bundle in der Datenbank hinzufügen. 25.2. directory. 200) beschrieben. 205) beschriebenen Runlevel-Editor von YaST kann der Server automatisch beim Booten und Anhalten des Systems gestartet bzw. Mit dem in Abschnitt 8.und Änderungsvorgänge im Datenbestand werden im Folgenden kurz beschrieben.4. „Init-Skripts“ (S. fahren Sie mit der Eingabe von Datensätzen fort. LDAP – Ein Verzeichnisdienst 469 .2. angehalten werden. Such. Wenn möglich. Bei einer LDIF-Datei handelt es sich um eine einfache Textdatei. „Konfigurieren von Systemdiensten (Runlevel) mit YaST“ (S. indem Sie den Befehl rcldap start eingeben. Darüber hinaus besteht die Möglichkeit.4. Lösch-. „Datenbehandlung im LDAP-Verzeichnis“ (S.3 Starten und Anhalten der Server Nachdem der LDAP-Server vollständig konfiguriert und alle gewünschten Einträge gemäß dem in Abschnitt 25.3. wie in Abschnitt 8.25. 25.

Mit -W wird die Passworteingabe in der Befehlszeile (unverschlüsselt) umgangen und eine separate Passworteingabeaufforderung aktiviert. Im aktuellen Beispiel lautet er cn=admin.Die LDIF-Datei zur Erstellung eines groben Framework für das Beispiel in Abbildung 25.dc=suse. Ansonsten sollten Sie Umlaute und andere Sonderzeichen vermeiden oder recode verwenden.dc=suse.dc=de. Das Passwort wurde zuvor in slapd. Mit -f 470 Referenz . Verwenden Sie einen Editor mit UTF-8-Unterstützung. der den Vorgang aufruft. wie beispielsweise Kate oder neuere Versionen von Emacs.ldif -x deaktiviert in diesem Fall die Authentifizierung mit SASL. „Beispiel für eine LDIF-Datei“ (S.dc=suse. 470) ähneln.dc=suse.7.dc=de objectClass: dcObject objectClass: organization o: SUSE AG dc: suse # The organizational unit development (devel) dn: ou=devel. -D deklariert den Benutzer. 461) würde der Datei in Beispiel 25.dc=de objectClass: organizationalUnit ou: it WICHTIG: Codierung von LDIF-Dateien LDAP arbeitet mit UTF-8 (Unicode). Beispiel 25. um die Eingabe in UTF-8 neu zu kodieren.dc=de objectClass: organizationalUnit ou: doc # The organizational unit internal IT (it) dn: ou=it.1. Der gültige DN des Administrators wird hier so eingegeben. wie er in slapd.dc=de objectClass: organizationalUnit ou: devel # The organizational unit documentation (doc) dn: ou=doc.conf konfiguriert wurde.conf mit rootpw festgelegt. Speichern Sie die Datei mit der Erweiterung .ldif und geben Sie sie mit folgendem Befehl an den Server weiter: ldapadd -x -D <dn of the administrator> -W -f <file>. „Struktur eines LDAP-Verzeichnisses“ (S. Umlaute müssen richtig kodiert werden.7 Beispiel für eine LDIF-Datei # The SUSE Organization dn: dc=suse.

Beispiel 25.de uid: tux telephoneNumber: +49 1234 567-8 Eine LDIF-Datei kann eine beliebige Anzahl an Objekten enthalten.wird der Dateiname weitergegeben.dc=suse. wie im Beispiel der einzelnen Objekte dargestellt.dc=de" entry "ou=it. wird eine detaillierte Unterteilung der einzelnen Objekte empfohlen.8 ldapadd mit example. Am einfachsten können Sie dies durch die Änderung der entsprechenden LDIF-Datei und der Weiterleitung der geänderten Datei an den LDAP-Server erreichen.ldif Enter LDAP adding new adding new adding new adding new password: entry "dc=suse. 471).dc=suse.9 LDIF-Daten für Tux # coworker Tux dn: cn=Tux Linux. „LDIF-Daten für Tux“ (S. Detaillierte Informationen zum Ausführen von ldapadd erhalten Sie in Beispiel 25.dc=de" Die Benutzerdaten einzelner Personen können in separaten LDIF-Dateien vorbereitet werden.dc=suse.In Beispiel 25.dc=suse.dc=suse.dc=de" entry "ou=devel. Wenn bestimmte Daten relativ häufig geändert werden müssen.8.dc=de -W -f example.4.ldif“ (S. 25.dc=de" entry "ou=doc.dc=de objectClass: inetOrgPerson cn: Tux Linux givenName: Tux sn: Linux mail: tux@suse. „ldapadd mit example.ou=devel.ldif ldapadd -x -D cn=admin.2 Ändern von Daten im LDAP-Verzeichnis Mit dem Werkzeug ldapmodify kann der Datenbestand geändert werden. Es können ganze Verzeichnisverzweigungen oder nur Teile davon in einem Vorgang an den Server weitergegeben werden. Beispiel 25.9. 471) wird dem neuen LDAP-Verzeichnis Tux hinzugefügt. Wenn Sie die Telefonnummer des Kollegen Tux von +49 1234 567-8 in +49 1234 567-10 LDAP – Ein Verzeichnisdienst 471 .

dc=suse.10 Geänderte LDIF-Datei tux. Starten Sie ldapmodify und geben Sie Ihr Passwort ein: ldapmodify -x -D cn=admin.dc=de "(objectClass=*)" 472 Referenz .10.dc=de changetype: modify replace: telephoneNumber telephoneNumber: +49 1234 567-10 Importieren Sie die geänderte Datei mit folgendem Befehl in das LDAP-Verzeichnis: ldapmodify -x -D cn=admin.ou=devel.dc=de changetype: modify replace: telephoneNumber telephoneNumber: +49 1234 567-10 Detaillierte Informationen zu ldapmodify und der zugehörigen Syntax finden Sie auf der Manualpage ldapmodify(1). 25.3 Suchen und Lesen von Daten in einem LDAP-Verzeichnis Mit ldapsearch steht in OpenLDAP ein Befehlszeilenwerkzeug zum Suchen von Daten innerhalb eines LDAP-Verzeichnisses und zum Lesen von Daten aus dem Verzeichnis zur Verfügung.ldif Alternativ können Sie die zu ändernden Attribute direkt an ldapmodify weitergeben. Beispiel 25.dc=de -W -f tux. Eine einfache Abfrage weist folgende Syntax auf: ldapsearch -x -b dc=suse.dc=suse.4.dc=de -W Enter LDAP password: 2.ändern möchten.ldif # coworker Tux dn: cn=Tux Linux.dc=suse.ldif“ (S. Geben Sie die Änderungen ein und halten Sie sich dabei genau in die unten angegebene Syntax-Reihenfolge: dn: cn=Tux Linux. wie in Beispiel 25. „Geänderte LDIF-Datei tux. Die entsprechende Vorgehensweise wird nachfolgend beschrieben: 1.ou=devel. 472) angegeben.dc=suse. bearbeiten Sie die LDIF-Datei.

4 Löschen von Daten in einem LDAP-Verzeichnis Mit ldapdelete werden unerwünschte Einträge gelöscht. in dem die Suche durchgeführt werden soll.dc=de 25.1 Standardverfahren Hintergrundwissen über die Prozesse.und NSS-bezogenen Änderungen. Wenn LDAP für die Netzwerkauthentifizierung aktiviert oder das YaST-Modul aufgerufen wird. Die Syntax ist ähnlich wie die der oben beschriebenen Befehle. (objectClass=*) deklariert. Wenn Sie beispielsweise den vollständigen Eintrag für Tux Linux löschen möchten.4. dass alle im Verzeichnis enthaltenen Objekte gelesen werden sollen. starten Sie das Modul durch Auswahl von Netzwerkdienste → LDAP-Client.dc=de.5 YaST LDAP-Client YaST enthält ein Modul zum Einrichten der LDAP-basierten Benutzerverwaltung. Diese Befehlsoption kann nach der Erstellung eines neuen Verzeichnisbaums verwendet werden. werden die Pakete pam_ldap und nss_ldap LDAP – Ein Verzeichnisdienst 473 . 25. um zu prüfen. Wenn Sie diese Funktion bei der Installation nicht aktiviert haben. Im aktuellen Fall lautet er dc=suse.Mit der Option -b wird die Suchbasis festgelegt – der Abschnitt des Baums.ou=devel. erleichtert Ihnen das Verständnis der Funktionsweise des YaSTModuls LDAP-Client. erteilen Sie folgenden Befehl: ldapdelete -x -D cn=admin. die auf einem Client-Computer im Hintergrund ausgeführt werden. die für LDAP erforderlich sind (siehe nachfolgende Beschreibung) und installiert die benötigten Dateien. geben Sie diesen Abschnitt mit -b an ldapsearch weiter. YaST aktiviert alle PAM.5. Mit -x wird die Aktivierung der einfachen Authentifizierung angefordert. 25.dc=suse.dc=de -W cn=Tux \ Linux.dc=suse. Wenn Sie eine feiner abgestufte Suche in speziellen Unterabschnitten des LDAP-Verzeichnisses durchführen möchten (beispielsweise nur innerhalb der Abteilung devel). ob alle Einträge richtig aufgezeichnet wurden und ob der Server wie gewünscht reagiert. Weitere Informationen zur Verwendung von ldapsearch finden Sie auf der entsprechenden Manualpage (ldapsearch(1)).

Konfigurationsdateien.conf“ (S. Die glibc-Namenauflösung über den nsswitch-Mechanismus wird an den Einsatz von LDAP mit nss_ldap angepasst.12. die bereits für einzelne Dienste angepasst sind.11.conf passwd: compat group: compat passwd_compat: ldap group_compat: ldap Mit diesen Zeilen wird die Resolver-Bibliothek von glibc angewiesen. 474 Referenz .conf“ (S. Weitere Informationen zur Funktionsweise von nsswitch. Diesen Mechanismus können Sie testen. „An LDAP angepasste Datei pam_unix2. „Konfigurationsdateien“ (S. In der Datei nsswitch. die als Quellen für Authentifizierungs. Beispiel 25.d/. „Anpassungen in nsswitch. indem Sie beispielsweise die Inhalte der Benutzerdatenbank mit dem Befehl getent passwd abrufen.11 An LDAP angepasste Datei pam_unix2. Kopieren Sie die entsprechenden Dateien in /etc/pam. Bei der Installation dieses Pakets wird eine neue angepasste Datei nsswitch.installiert und die beiden entsprechenden Konfigurationsdateien angepasst.conf müssen für die Benutzerverwaltung und -authentifizierung mit LDAP folgende Zeilen vorhanden sein: Siehe Beispiel 25.d auf. pam_ldap ist das PAM-Modul.6. Das dedizierte Modul pam_ldap.conf in /etc/ erstellt.d. finden Sie unter /usr/share/doc/packages/pam _ldap/pam. das für die Verhandlung zwischen den Anmeldeprozessen und dem LDAP-Verzeichnis als Quelle der Authentifizierungsdaten verantwortlich ist.12 Anpassungen in nsswitch.conf finden Sie in Abschnitt 18. Beispiel 25.1.und Benutzerdaten dienen.conf auth: account: password: session: use_ldap use_ldap use_ldap none Bei der manuellen Konfiguration zusätzlicher Dienste für die Verwendung von LDAP nehmen Sie das PAM-LDAP-Modul in die entsprechende PAM-Konfigurationsdatei für den Dienst in /etc/pam.so wird installiert und die PAM-Konfiguration entsprechend angepasst (siehe Beispiel 25. Der zurückgegebene Datensatz enthält eine Übersicht über die lokalen Benutzer des Systems und über alle auf dem LDAP-Server gespeicherten Benutzer. 474). zuerst die entsprechenden Dateien in /etc zu bewerten und zusätzlich die LDAP-Server aufzurufen. 474)). 382).

2 Konfiguration des LDAP-Client Nachdem YaST die ersten Anpassungen von nss_ldap. müssen die Dateien /etc/passwd und /etc/group eine zusätzliche Zeile enthalten. 476)) wird während der Installation geöffnet. /etc/passwd und /etc/group vorgenommen hat. Dies beinhaltet die Änderung der Standardeinstellungen für neue Benutzer und Gruppen und der Anzahl und Art von Attributen. Mit der LDAP-Benutzerverwaltung können Sie Benutzern und Gruppen mehrere und verschiedene Attribute zuweisen als bei herkömmlichen Lösungen zur Gruppen. LDAP – Ein Verzeichnisdienst 475 . 25. Grundlegende Konfiguration Das Dialogfeld für die grundlegende Konfiguration des LDAP-Client (Abbildung 25. 475) beschrieben. „YaST: Konfiguration des LDAP-Client“ (S. Verwenden Sie für die weitere Konfiguration der YaST-Gruppe und der Benutzerkonfigurationsmodule den YaST LDAP-Client.oder Benutzerverwaltung. 479) beschrieben. Dies wird ausführlich in „Konfigurieren des YaST-Moduls zur Benutzer. wenn Sie die LDAP-Benutzerverwaltung oder Netzwerkdienste → LDAPClient im YaST-Kontrollzentrum des installierten Systems auswählen.2. Hierbei handelt es sich um die Zeile +::::::/sbin/nologin in /etc/passwd und +::: in /etc/group.5. können Sie einfach eine Verbindung zwischen dem Client und dem Server herstellen und die Benutzerverwaltung von YaST über LDAP ausführen lassen.und Gruppenverwaltung“ (S.Um zu verhindern. pam_ldap. Das grundlegende Setup wird in „Grundlegende Konfiguration“ (S. einer Gruppe zugewiesen sind. dass sich reguläre über LDAP verwaltete Benutzer mit ssh oder login beim Server anmelden. die einem Benutzer bzw.

wenn LDAP für die Authentifizierung verwendet werden soll. die YaST liefert. 3 Geben Sie den LDAP Base DN ein. um die Benutzer Ihres Computers bei einem OpenLDAPServer zu authentifizieren und die Benutzerverwaltung über OpenLDAP zu aktivieren: 1 Klicken Sie zum Aktivieren von LDAP auf LDAP verwenden. 4 Wenn eine durch TLS oder SSL geschützte Kommunikation mit dem Server erforderlich ist. Wählen Sie den geeigneten „Base DN“ aus den Suchergebnissen. YaST prüft dann.Abbildung 25. ob eine oder mehrere LDAP-Datenbanken an der oben angegebenen Serveradresse vorhanden sind. dass sich Benutzer bei diesem Client anmelden. 2 Geben Sie die IP-Adresse des zu verwendenden LDAP-Servers ein.2 YaST: Konfiguration des LDAP-Client Gehen Sie wie folgt vor. klicken Sie auf DN holen. wählen Sie LDAP TLS/SSL. Wählen Sie LDAP verwenden. Sie jedoch verhindern möchten. um die Suchbasis auf dem LDAP-Server auszuwählen. Wenn Sie den „Base DN“ automatisch abrufen möchten. 476 Referenz . jedoch Anmeldungen deaktivieren aus.

Passwörter und Gruppen von der im LDAP Base DN angegebenen globalen Suchbasis unterscheidet. muss die Verwendung dieser Protokollversion durch Auswahl von LDAP Version 2 ausdrücklich aktiviert werden.5 Falls auf dem LDAP-Server noch LDAPv2 verwendet wird.3 YaST: Erweiterte Konfiguration Wenn Sie als Administrator Daten auf einem Server ändern möchten.3. LDAP – Ein Verzeichnisdienst 477 . wie beispielsweise ein entfernt verwaltetes /home-Verzeichnis auf dem Client einzuhängen. „YaST: Erweiterte Konfiguration“ (S. Passwortzuordnung und Gruppenzuordnung ein. um die entfernten Verzeichnisse. Das folgende Dialogfeld verfügt über zwei Registerkarten. 477): 1 Passen Sie auf der Registerkarte Client-Einstellungen die folgenden Einstellungen je nach Bedarf an: a Wenn sich die Suchbasis für Benutzer. Siehe Abbildung 25. Abbildung 25. geben Sie diese anderen Benennungskontexte unter Benutzerzuordnung. 7 Klicken Sie zum Anwenden der Einstellungen auf Beenden. 6 Wählen Sie Automounter starten aus. klicken Sie auf Erweiterte Konfiguration.

Detaillierte Informationen zu dieser und anderen Optionen finden Sie auf der Manualpage pam_ldap.dc=de) oder aktivieren Sie Basis-DN anhängen. dass mit crypt erstellte Passwort-Hashes verwendet werden. 479) beschriebenen Schritte. die mit Attribut für Gruppenmitglied verwendet werden soll. d Wenn der Client-Computer als Dateiserver für die Home-Verzeichnisse in Ihrem Netzwerk fungieren soll. 2 Passen Sie unter Verwaltungseinstellungen folgende Einstellungen an: a Legen Sie die Basis zum Speichern der Benutzerverwaltungsdaten mit Konfigurations-Base DN fest.b Geben Sie das Passwortänderungsprotokoll an. Mit Einstellungen für die Benutzerverwaltung konfigurieren bearbeiten Sie Einträge auf dem LDAP-Server. 478 Referenz . c Aktivieren Sie die Option Standardkonfigurationsobjekte erzeugen. e Klicken Sie zum Verlassen der Erweiterten Konfiguration auf Übernehmen und anschließend zum Zuweisen der Einstellungen auf Beenden. cn=admin. wenn Sie cn=admin eingeben. um die Standardkonfigurationsobjekte auf dem Server zu erstellen und so die Benutzerverwaltung über LDAP zu ermöglichen. Dies bedeutet. B.dc=suse. damit der Basis-DN automatisch angehängt wird.conf angegebenen Wert für rootdn entsprechen. Der Zugriff auf die Konfigurationsmodule auf dem Server wird anschließend entsprechend den auf dem Server gespeicherten ACLs und ACIs gewährt.und Gruppenverwaltung“ (S. Geben Sie den vollen DN ein (z. damit dieser spezielle Benutzer die auf einem LDAPServer gespeicherten Daten bearbeiten kann. c Geben Sie die LDAP-Gruppe an. lautet crypt. aktivieren Sie Home-Verzeichnisse auf diesem Computer. b Geben Sie die entsprechenden Werte für Administrator-DN ein. die bei Passwortänderungen verwendet wird. Die Standardmethode. Dieser DN muss dem in /etc/openldap/slapd. Befolgen Sie die in „Konfigurieren des YaST-Moduls zur Benutzer. Der Standardwert ist member.

vorhandene Konfigurationsmodule auswählen und ändern sowie Vorlagen für solche Module entwerfen und ändern. 479)) können Sie neue Module erstellen. Die hier vorgenommenen Voreinstellungen werden als LDAPObjekte im LDAP-Verzeichnis gespeichert.und Gruppenverwaltung.und Gruppenverwaltung Verwenden Sie den YaST LDAP-Client.und Gruppenverwaltung anzupassen und sie nach Bedarf zu erweitern. Definieren Sie die Vorlagen mit Standardwerten für die einzelnen Attribute. LDAP – Ein Verzeichnisdienst 479 . Abbildung 25. um die YaST-Module für die Benutzer. Die registrierten Daten werden als LDAP-Objekte auf dem Server gespeichert.4 YaST: Modulkonfiguration Im Dialogfeld für die Modulkonfiguration (Abbildung 25. „YaST: Modulkonfiguration“ (S. um die Datenregistrierung zu vereinfachen.4. Zum Erstellen eines neuen Konfigurationsmoduls gehen Sie wie folgt vor: 1 Klicken Sie auf Neu und wählen Sie den gewünschten Modultyp aus.Konfigurieren des YaST-Moduls zur Benutzer. Die Registrierung von Benutzerdaten erfolgt weiterhin über reguläre YaST-Module für die Benutzer. Wählen Sie für ein Benutzerkonfigurationsmodul suseuserconfiguration und für eine Gruppenkonfiguration susegroupconfiguration aus.

oder Gruppenkonfigurationsobjekte im LDAP-Baum). In der Inhaltsansicht wird dann eine Tabelle mit allen in diesem Modul zulässigen Attributen und den entsprechenden zugewiesenen Werten angezeigt. 3 Akzeptieren Sie die voreingestellten Werte oder passen Sie die Standardwerte an. Durch Klicken auf Löschen wird das ausgewählte Modul gelöscht. löschen oder fügen Sie neue Standardwerte für neue Objekte hinzu (Benutzer. 2 Legen Sie die Werte der allgemeinen dieser Vorlage zugewiesenen Attribute gemäß Ihren Anforderungen fest oder lassen Sie einige nicht benötigte Attribute leer. Ein Modul können Sie umbenennen. Mit den YaST-Modulen für die Gruppen. indem Sie Bearbeiten wählen und den neuen Wert eingeben. Neben allen festgelegten Attributen enthält die Liste auch alle anderen im aktuellen Schema zulässigen jedoch momentan nicht verwendeten Attribute.2 Legen Sie einen Namen für die neue Vorlage fest. indem Sie einfach das Attribut cn des Moduls ändern.und Benutzerkonfiguration verwendet werden sollen. 480 Referenz . 4 Mit OK fügen Sie das neue Modul dem Auswahlmenü hinzu. Zum Bearbeiten einer Vorlage für ein Konfigurationsmodul führen Sie folgende Schritte aus: 1 Klicken Sie im Dialogfeld Konfiguration von Modulen auf Vorlage konfigurieren. die in der Gruppen.und Benutzerverwaltung werden Vorlagen mit sinnvollen Standardwerten eingebettet. 3 Ändern. Leere Attribute werden auf dem LDAP-Server gelöscht.

TIPP Die Standardwerte für ein Attribut können anhand von anderen Attributen mithilfe einer Variablen anstelle eines absoluten Werts erstellt werden. Nachdem alle Module und Vorlage richtig konfiguriert wurden und zum Ausführen bereit sind. LDAP – Ein Verzeichnisdienst 481 . indem Sie den Wert des Attributs susedefaulttemplate für das Modul auf den DN der angepassten Vorlage setzen. Wenn Sie beispielsweise einen neuen Benutzer erstellen. wird cn=%sn %givenName automatisch anhand der Attributwerte für sn und givenName erstellt.Abbildung 25.5 YaST: Konfiguration einer Objektvorlage Verbinden Sie die Vorlage mit dem entsprechenden Modul. können neue Gruppen und Benutzer wie gewohnt mit YaST registriert werden.

2 Mit Filter festlegen können Sie die Anzeige der Benutzer auf LDAP-Benutzer beschränken und das Passwort für „Root-DN“ eingeben. b Wählen Sie die Registerkarte Details aus. 4 Klicken Sie zum Zuweisen der Einstellungen und zum Beenden der Benutzerkonfiguration auf Übernehmen.und Gruppendaten weicht nur geringfügig von dem Vorgang ohne Verwendung von LDAP ab. 3 Klicken Sie auf Hinzufügen und geben Sie die Konfiguration für einen neuen Benutzer ein. 482 Referenz . wählen Sie das LDAP-Plugin und klicken Sie zum Konfigurieren zusätzlicher LDAP-Attribute für den neuen Benutzer auf Starten (siehe Abbildung 25. um die Gruppenmitgliedschaft. die Anmeldeinformationen und das Passwort an. ändern Sie den Standardwert entsprechend Ihren Anforderungen. „YaST: Zusätzliche LDAPEinstellungen“ (S. Die folgenden kurzen Anweisungen betreffen die Benutzerverwaltung. Das Verfahren für die Gruppenverwaltung entspricht dieser Vorgehensweise. Die Standardwerte und die Passworteinstellungen können mit den unter „Konfigurieren des YaST-Moduls zur Benutzer. die Anmelde-Shell und das Home-Verzeichnis für den neuen Benutzer anzugeben. 483)). 1 Rufen Sie die YaST-Benutzerverwaltung über Sicherheit und Benutzer → Benutzerverwaltung auf. c Ändern oder akzeptieren Sie die standardmäßigen Passworteinstellungen. 479) beschriebenen Schritten definiert werden. Daraufhin wird ein Dialogfeld mit vier Registerkarten geöffnet: a Geben Sie auf der Registerkarte Benutzerdaten den Benutzernamen.6 Konfigurieren von LDAP-Benutzern und -Gruppen Die tatsächliche Registrierung der Benutzer. Falls erforderlich.25. d Rufen Sie die Registerkarte Plug-Ins auf.und Gruppenverwaltung“ (S.6.

25.org/faq/data/cache/1.html zur Verfügung. LDAP – Ein Verzeichnisdienst 483 . der die Auslastung auf mehrere Slaves verteilt. wie die SASL-Konfiguration oder das Einrichten eines LDAPServers für die Reproduktion.2 Administrator's Guide (Verweise siehe unten). Sie steht unter http://www . Hier haben Sie die Möglichkeit. Auf der Website des OpenLDAP-Projekt stehen umfangreiche Dokumentationen für Einsteiger und fortgeschrittene LDAP-Benutzer zur Verfügung: OpenLDAP Faq-O-Matic Eine umfangreiche Sammlung von Fragen und Antworten zur Installation.6 YaST: Zusätzliche LDAP-Einstellungen Im ersten Eingabeformular der Benutzerverwaltung stehen LDAP-Optionen zur Verfügung. Detaillierte Informationen zu diesen beiden Themen erhalten Sie im OpenLDAP 2.Abbildung 25. wurden in diesem Kapitel bewusst nicht behandelt. LDAP-Suchfilter auf die Gruppe der verfügbaren Benutzer anzuwenden oder das Modul zur Konfiguration von LDAP-Benutzern und Gruppen durch die Auswahl von Verwaltung von Benutzern und Gruppen aufzurufen.openldap. Konfiguration und Verwendung von OpenLDAP.7 Weitere Informationen Komplexere Themen.

Dieses Dokument finden Sie unter http://www.Quick Start Guide Kurze Schritt-für-Schritt-Anleitung zur Installation des ersten LDAP-Servers.2 Administrator's Guide Eine detaillierte Einführung in alle wichtigen Aspekte der LDAP-Konfiguration einschließlich der Zugriffssteuerung und der Verschlüsselung.pdf.org/doc/admin22/ oder in einem installierten System unter /usr/share/doc/packages/openldap2/ admin-guide/index.ibm. OpenLDAP 2. 484 Referenz . Dieses Dokument finden Sie unter http://www.html. Literatur zu LDAP: • LDAP System Administration von Gerald Carter (ISBN 1-56592-491-6) • Understanding and Deploying LDAP Directory Services von Howes.org/doc/ admin22/quickstart.html.com/redbooks/pdfs/sg244986.openldap. 2251 bis 2256.redbooks. Informationen zu LDAP Detaillierte allgemeine Einführung in die Grundlagen von LDAP: http://www . Smith und Good (ISBN 0-672-32316-8) Das ausführlichste und wichtigste Referenzmaterial zum Thema LDAP sind die entsprechenden RFCs (Request for Comments).html oder in einem installierten System unter /usr/ share/doc/packages/openldap2/admin-guide/quickstart.openldap.

dass folgende Voraussetzungen erfüllt sind.1 Voraussetzungen Vergewissern Sie sich. SUSE Linux enthält Apache Version 2. In diesem Kapitel erfahren Sie.apache. 26.com/-Umfrage im November 2005 der weltweit am häufigsten eingesetzte Webserver. Das Netzwerk des Computers ist ordnungsgemäß konfiguriert.netcraft. wie Sie Apache in kürzester Zeit installieren und einrichten. Der von Apache Software Foundation (http:// www. wie Sie bei Problemen mit dem Webserver vorgehen.1.Der HTTP-Server Apache 26 Mit einem Marktanteil von mehr als 70 % ist der Apache HTTP-Server (Apache) laut einer http://www.2. konfiguriert und eingerichtet wird.org/) entwickelte Apache-Server läuft auf fast allen Betriebssystemen. bevor Sie den Apache-Webserver einrichten: 1. 26. Sie lernen SSL. Der HTTP-Server Apache 485 . Zur Installation und Konfiguration von Apache müssen Sie als Root-Benutzer angemeldet sein.1 Schnellstart In diesem Abschnitt erfahren Sie. CGI und weitere Module kennen und erfahren. Grundlegendes zu Netzwerken (S. wie Apache installiert. Weitere Informationen zu diesem Thema finden Sie unter Kapitel 18. 345).

Weitere Informationen zu diesem Thema finden Sie unter Kapitel 24. dass die Systemzeit des Computers genau ist. Wenn Sie Ihre Änderungen nun mit Beenden speichern. Die exakte Uhrzeit ist für Teile des HTTP-Protokolls nötig.1. Weitere Informationen erhalten Sie unter „Konfiguration mit YaST“ (S.3. Hierzu zählt sowohl das Multiprocessing-Modul (MPM) apache2-prefork als aus das Modul PHP5. führen Sie YaST-Online-Update aus. dass Apache automatisch bei jedem Systemstart gestartet wird. 26. 486 Referenz .4. 451). um den Installationsvorgang abzuschließen. Weitere Informationen zu den Runlevels in SUSE Linux und eine Beschreibung des YaST-Runlevel-Editors finden Sie in Abschnitt 8. „Installieren.3 Start Um Apache zu starten und sicherzustellen. 3. Falls Sie sich nicht sicher sind. „Konfigurieren von Systemdiensten (Runlevel) mit YaST“ (S. In der Firewall ist der Standardport des Webservers (Port 80) geöffnet. öffnen Sie YaST und wählen Sie System → System Services (Runlevel) (Systemdienste (Runlevel)) aus. Weitere Informationen über Module erhalten Sie unter Abschnitt 26. Suchen Sie dann nach apache2 und aktivieren Sie den Service.2.1. 4. Zeitsynchronisierung mit NTP (S. wird Apache beim Systemstart automatisch in Runlevel 3 und 5 gestartet. Lassen Sie dazu in SUSEFirewall2 den Service HTTP Server (HTTP-Server) in der externen Zone zu. Durch Synchronisierung mit einem Zeitserver ist sichergestellt. Die neuesten Sicherheitsaktualisierungen sind installiert. 505). 116). Aktivieren und Konfigurieren von Modulen“ (S. Wählen Sie dann Filters (Filter) → Selections (Selektionen) und schließlich Einfacher Webserver mit Apache2 aus. Der Webserver wird sofort gestartet.2. 205). 26.2 Installation Apache ist in der Standardinstallation von SUSE Linux nicht enthalten. Bestätigen Sie die Installation der abhängigen Pakete. Zur Installation starten Sie YaST und wählen Sie Software → Software Management (SoftwareManagement) aus. Apache wird mit einer voreingestellten Standardkonfiguration installiert. Diese Konfiguration können Sie in YaST vornehmen.

Nachdem der Webserver nun läuft.1 Manuelle Konfiguration von Apache Wenn Sie den Apache-Webserver manuell konfigurieren möchten. 26. müsste der Webserver nun laufen. Wenn Sie YaST zur Konfiguration verwenden und die Konfiguration mit aktiviertem HTTP-Dienst abschließen. müssen Sie die Klartext-Konfigurationsdateien als Root-Benutzer bearbeiten. WICHTIG: Konfigurationsänderungen Die meisten Konfigurationsänderungen werden erst nach einem Neustart bzw.8. Für die meisten Konfigurationsänderungen ist allerdings nur eine Aktualisierung mit rcapache2 reload erforderlich. Bei der manuellen Konfiguration können Sie mehr Details einstellen. „Starten und Beenden von Apache“ (S. können Sie eigene Dokumente hinzufügen. nach dem Neuladen von Apache wirksam. 26. 503) beschrieben.Über die Shell starten Sie Apache mit dem Befehl rcapache2 start. lesen Sie den Abschnitt Abschnitt 26. 526). Starten Sie einen Webbrowser und öffnen Sie http:// localhost/. Wenn diese Seite nicht angezeigt wird. die Konfiguration an Ihre Anforderungen anpassen und weitere Module mit den benötigten Funktionen installieren.3. Sofern Sie beim Start von Apache keine Fehlermeldungen erhalten haben.2.2 Konfigurieren von Apache In SUSE Linux kann Apache auf zweierlei Weisen konfiguriert werden: mit YaST oder manuell. „Fehlerbehebung“ (S. allerdings müssen Sie ohne den Komfort der Benutzeroberfläche von YaST zurechtkommen. Der manuelle Neustart wird unter Abschnitt 26. wird der Computer automatisch neu gestartet. wurde die ApacheWebserver-Software erfolgreich auf diesem System installiert). Der HTTP-Server Apache 487 . dass Apache beim Systemstart automatisch in Runlevel 3 und 5 gestartet wird. Nun sollte eine Apache-Testseite mit folgendem Text geöffnet werden: „If you can see this. it means that the installation of the Apache Web server software on this system was successful“ (Wenn diese Seite angezeigt wird. Mit dem Befehl chkconfig -a apache2 stellen Sie sicher.

charset. die beim Serverstart zu verwendenden Flags sowie Flags. WICHTIG: Kein SuSEconfig-Modul für Apache Das SuSEconfig-Modul für Apache wurde in SUSE Linux entfernt. die einzuschließenden Konfigurationsdateien.d/ | | | |. beispielsweise die zu ladenden Module.conf.*. SuSEconfig muss nach einer Änderung von /etc/sysconfig/apache2 nicht mehr ausgeführt werden. /etc/apache2/ /etc/apache2/ enthält alle Konfigurationsdateien für Apache.conf 488 Referenz .Konfigurationsdateien Die Konfigurationsdateien von Apache befinden sich in zwei verschiedenen Verzeichnissen: • /etc/sysconfig/apache2 • /etc/apache2/ /etc/sysconfig/apache2 /etc/sysconfig/apache2 steuert einige globale Einstellungen von Apache. die der Befehlszeile hinzugefügt werden sollen. Für die Konfigurationsanforderungen eines typischen Webservers dürften die Einstellungen der Datei /etc/ sysconfig/apache2 ausreichen.conv |. Die Apache-Konfigurationsdateien gliedern sich wie folgt: /etc/apache2/ | |. In diesem Abschnitt wird der Zweck jeder einzelnen Datei erklärt. Die Konfigurationsoptionen dieser Dateien sind hinreichend dokumentiert und werden daher an dieser Stelle nicht näher erläutert. Jede Datei enthält mehrere Konfigurationsoptionen (auch als Direktiven bezeichnet). Die Konfigurationsoptionen dieser Datei sind hinreichend dokumentiert und werden daher an dieser Stelle nicht näher erläutert.

| |||||||||||| | | | | ||| default-server.conf magic mime. Wenn Sie die Meldungen für alle virtuellen Hosts ändern möchten.* sysconfig. .include. sollten Sie sie in der virtuellen Hostkonfiguration überschreiben. uid. Der HTTP-Server Apache 489 .conf Apache-Konfigurationsdateien in /etc/apache2/ charset. default-server. können Sie diese Datei bearbeiten.template. errors.conf listen.conf Dies sind Konfigurationsdateien anderer Module. Statt die Werte in dieser Datei zu ändern.d | |. Sie können damit unterschiedliche Modulsätze für verschiedene virtuelle Hosts bereitstellen.loadmodule.d/*.d/vhost.conf ssl-global.conf ssl.conf vhosts.conf |.conf Diese Datei legt fest.d |.conf |.conf .conf httpd.conf Diese Datei enthält eine globale Konfiguration für virtuelle Hosts mit vernünftigen Standardeinstellungen. wie Apache auf Fehler reagiert.conf errors. Anderenfalls sollten Sie die entsprechenden Direktiven in den virtuellen Hostkonfigurationen überschreiben. Bearbeiten Sie diese Datei nicht. conf. Bei Bedarf können die Konfigurationsdateien in Ihre virtuellen Hostkonfigurationen eingeschlossen werden. welche Zeichensätze für die verschiedenen Sprachen verwendet werden.types mod_*.*.conv In dieser Datei ist festgelegt. Beispiele finden Sie in vhosts.global.conf server-tuning.

magic Diese Datei enthält Daten für das Modul mime_magic. sollten den Webserver anschließend aber gründlich testen. mod_*. Sie können diese Datei bearbeiten. „Einrichten eines sicheren Webservers mit SSL“ (S. „Multiprocessing-Module“ (S.conf Diese Datei enthält Konfigurationsdirektiven für verschiedene MPMs (siehe Abschnitt 26. sollten Sie der Datei mod _mime-defaults. Globale Einstellungen können Sie in den in diesem Abschnitt aufgelisteten Konfigurationsdateien ändern. Aktivieren und Konfigurieren von Modulen“ (S. Einzelheiten finden Sie unter Abschnitt 26. 510)) und allgemeine Konfigurationsoptionen. Die Konfigurationsdateien optionaler Module befinden sich im Verzeichnis conf. 492)).4.conf und ssl. ssl-global.d. Bearbeiten Sie diese Datei nicht.types).httpd. Einzelheiten finden Sie unter Abschnitt 26.6. Diese Datei sollten Sie nicht bearbeiten.conf hinzufügen. 505). Bearbeiten Sie diese Datei nicht.conf Dies sind die Konfigurationsdateien der in der Standardinstallation enthaltenen Module. die hier nicht aufgelistet sind. listen.4. „Installieren. Sie enthält in erster Linie Include-Anweisungen und globale Einstellungen.4. Außerdem konfiguriert diese Datei das namensbasierte virtuelle Hosting (siehe „Namensbasierte virtuelle Hosts“ (S.conf Diese Datei bindet Apache an bestimmte IP-Adressen und Ports. mit dessen Hilfe Apache den MIME-Typ unbekannter Dateien ermittelt. server-tuning. mime. Host-spezifische Einstellungen wie DocumentRoot (absoluter Pfad) ändern Sie in der virtuellen Hostkonfiguration.* Diese Dateien enthalten die globale SSL-Konfiguration und die SSL-Zertifikatdaten. die sich auf die Leistung von Apache auswirken.conf Dies ist die Hauptkonfigurationsdatei des Apache-Servers. 517).types Diese Datei enthält die dem System bekannten MIME-Typen (genau genommen ist diese Datei eine Verknüpfung mit /etc/mime. MIME-Typen. 490 Referenz .

mehrere URIs (Universal Resource Identifiers) vom gleichen physischen Computer aus bedienen zu können. In SUSE Linux ist Apache unter /etc/apache2/vhosts. Bearbeiten Sie stattdessen die Dateien unter /etc/sysconfig/apache2.conf Diese Konfigurationsdateien werden automatisch aus /etc/sysconfig/ apache2 konfiguriert. uid. Einzelheiten finden Sie unter „Virtuelle Hostkonfiguration“ (S. Bearbeiten Sie diese Datei nicht. vhosts.conf In diese Dateien sollte Ihre virtuelle Hostkonfiguration gespeichert werden.template für einen virtuellen Host mit SSLUnterstützung). IPAdressen oder Ports basieren. Der HTTP-Server Apache 491 .template bzw. Das Verzeichnis enthält Vorlagen für virtuelle Hosts mit und ohne SSL.net können von einem einzigen Webserver auf einem physischen Computer ausgeführt werden. Jede Datei in diesem Verzeichnis mit der Erweiterung . Virtuelle Hosts können auf Namen. Alle Dateien in diesem Verzeichnis mit der Erweiterung . 491). Virtuelle Hosts können mit YaST (siehe „Virtual Hosts (Virtuelle Hosts)“ (S. unter der Apache läuft.conf ist automatisch Bestandteil der Apache-Konfiguration.d/*.d/*.beispiel. um Verwaltungsaufwand (nur ein Webserver muss verwaltet werden) und Hardware-Kosten (für die einzelnen Domänen ist kein dedizierter Server erforderlich) zu sparen. Virtuelle Hosts werden häufig eingesetzt.und Gruppen-ID an.com und www.sysconfig.beispiel.conf Diese Datei gibt die Benutzer. Ändern Sie diese Dateien nicht. 499)) oder manuell durch Bearbeitung einer Konfigurationsdatei konfiguriert werden. Fügen Sie diesem Verzeichnis auch keine weiteren Konfigurationsdateien hinzu. vhost-ssl. Außerdem enthält dieses Verzeichnis eine grundlegende Vorlage für virtuelle Hosts (vhost . In anderen Worten: Mehrere Domänen wie www.conf sind automatisch Bestandteil der Konfiguration.d/ standardmäßig für eine Konfigurationsdatei pro virtuellen Host vorbereitet. Virtuelle Hostkonfiguration Virtueller Host bezieht sich auf die Fähigkeit von Apache.

welche IP-Adresse (und optional welcher Port) auf Client-Anforderungen mit dem Domänennamen im HTTP-Header überwacht werden soll. löschen oder umbenennen. Der <VirtualHost></VirtualHost>-Block enthält die Informationen zu einer bestimmten Domäne.html. Wenn Apache eine Client-Anforderung für einen definierten virtuellen Host empfängt. Apache verwendet das Hostfeld in dem vom Client übersandten HTTP-Header. indem Sie einfach die Konfigurationsdatei des virtuellen Hosts verschieben. Wird kein übereinstimmender ServerName gefunden. wenn der Webserver nur eine Domäne enthält. optionale Argument ist der Port. 492 Referenz . Es empfiehlt sich. Als erstes Argument kann der vollständig qualifizierte Domänenname eingegeben werden – empfohlen wird aber die IP-Adresse. verwendet es die in diesem Block angegebenen Direktiven.TIPP: Erstellen Sie immer eine virtuelle Hostkonfiguration. selbst dann.apache. dann wird der erste angegebene virtuelle Host als Standard verwendet. Aus dem gleichen Grund sollten Sie auch für jeden virtuellen Host eine eigene Konfigurationsdatei erstellen. immer eine virtuelle Hostkonfiguration zu erstellen. sondern Sie können auch jederzeit auf eine funktionierende Basiskonfiguration zurückgreifen. Weitere Informationen über die Konfigurationsdirektiven von Apache finden Sie unter http://httpd. um die Anforderung mit einem übereinstimmenden ServerName-Eintrag der virtuellen Hostdeklarationen zu verbinden. In diesem Fall werden die Anforderungen an allen Schnittstellen empfangen.0/mod/quickreference . Sowohl für die IP-Adresse als auch für die Port-Nummer kann ein Platzhalterzeichen (*) eingegeben werden. Nahezu alle Direktiven können auch im Kontext eines virtuellen Hosts verwendet werden. Die Direktive NameVirtualHost teilt Apache mit.org/docs/2. Dieser ist standardmäßig Port 80 und wird mit der Listen-Direktive konfiguriert. IPv6-Adressen müssen in eckigen Klammern eingeschlossen sein. Dadurch fassen Sie nicht nur die gesamte domänenspezifische Konfiguration in einer einzigen Datei zusammen. Diese Option wird in der Konfigurationsdatei /etc/apache2/ listen. Namensbasierte virtuelle Hosts Namensbasierte virtuelle Hosts können an jeder IP-Adresse mehrere Websites bedienen. Das zweite.conf konfiguriert.

100:80> ...Beispiel 26. </VirtualHost> <VirtualHost *> .. Auf dem physischen Server muss für jeden IP-basierten virtuellen Host eine eigene IPAdresse eingerichtet sein.168.168. den vollständig qualifizierten Domänennamen) als Argument.168.. Eine mit der NameVirtualHost-Direktive deklarierte Port-Nummer ist optional.1.100 NameVirtualHost *:80 NameVirtualHost * NameVirtualHost [2002:c0a8:164::]:80 In einer namensbasierten virtuellen Hostkonfiguration übernimmt das VirtualHost-Anfangstag die zuvor unter NameVirtualHost deklarierte IPAdresse (bzw.1. Anstelle der IP-Adresse wird auch ein Platzhalterzeichen (*) akzeptiert.. Diese Syntax ist allerdings nur in Verbindung mit einem Platzhalter in NameVirtualHost * zulässig. </VirtualHost> IP-basierte virtuelle Hosts Bei dieser alternativen virtuellen Hostkonfiguration werden auf einem Computer mehrere IPs eingerichtet.. denen jeweils eine eigene IP zugewiesen ist. Auf einer Apache-Instanz befinden sich mehrere Domänen. IPv6-Adressen müssen in eckige Klammern eingeschlossen werden.168.. Falls der Computer nicht über die entsprechende Anzahl an Der HTTP-Server Apache 493 .1... Beispiel 26. </VirtualHost> <VirtualHost [2002:c0a8:164::]> .2 Namensbasierte VirtualHost-Direktiven <VirtualHost 192.100:80 NameVirtualHost 192.100> . </VirtualHost> <VirtualHost *:80> . </VirtualHost> <VirtualHost 192..1.1 Beispiele für namensbasierte VirtualHost-Einträge # NameVirtualHost IP-Adresse[:Port] NameVirtualHost 192.

0. unter dem der Host angesprochen wird. 494 Referenz . </VirtualHost> <VirtualHost 192.0.168.0.10 befinden.168..Netzwerkkarten verfügt.conf) Anwendung. Für jeden virtuellen Server wird ein eigener VirtualHost-Block benötigt.10) VirtualHost-Direktiven angegeben.20> ..3 IP-basierte VirtualHost-Direktiven <VirtualHost 192.10. Beispiel 26. Aus Sicherheitsgründen ist standardmäßig auf das gesamte Dateisystem kein Zugriff möglich.168. Sie müssen dieses Verzeichnis daher explizit innerhalb eines Directory-Containers entsperren.30> . Weitere Optionen finden Sie in /etc/apache2/vhosts. DocumentRoot Der absolute Pfad des Verzeichnisses.168.20 und 192.10 auch eine Listen-Direktive konfiguriert sein. Anderenfalls fänden die Direktiven aus der Standardserverkonfiguration (/etc/apache2/ default-server.0.template.168. Sollte für 192. </VirtualHost> In diesem Beispiel sind nur für die beiden zusätzlichen IP-Adressen (also nicht für 192.168. auf dem sich zwei Domänen mit den zusätzlichen IPs 192.d/vhost .0. aus dem Apache die Dateien für diesen Host bedient. müsste ein eigener IP-basierter Host für die HTTP-Anforderungen an diese Schnittstelle eingerichtet werden.0. Das folgende Beispiel zeigt Apache auf einem Computer mit der IP 192. ServerName Der vollständig qualifizierte Domänenname. Basiskonfiguration eines virtuellen Hosts Die Konfiguration eines virtuellen Hosts sollte mindestens die folgenden Direktiven enthalten. können auch virtuelle Netzwerkschnittstellen verwendet werden (IP-Aliasing)...0.168.

deny Allow from all </Directory> Die vollständige Basiskonfiguration eines virtuellen Hosts sieht wie folgt aus: Beispiel 26.com-access_log common <Directory "/srv/www/beispiel. da dies die Fehlersuche erleichtert. Ein eigenes Fehlerprotokoll für jeden virtuellen Host ist zwar nicht zwingend erforderlich. explizit entsperren: <Directory "/srv/www/beispiel. Wie bereits erwähnt.com_htdocs"> Order allow.com ErrorLog /var/log/apache2/www. ist standardmäßig auf das gesamte Dateisystem kein Zugriff möglich. da dies eine separate Analyse der Zugriffsdaten für jeden einzelnen Host ermöglicht. /var/log/apache2/ ist das Standardverzeichnis für die Protokolldateien von Apache. CustomLog Das Zugriffsprotokoll dieses virtuellen Hosts. in dem Sie die von Apache zu bedienenden Dateien abgelegt haben.com_htdocs ServerAdmin webmaster@beispiel.4 Basiskonfiguration eines virtuellen Hosts <VirtualHost 192.com DocumentRoot /srv/www/beispiel. Ein eigenes Zugriffsprotokoll für jeden virtuellen Host ist zwar nicht zwingend erforderlich.168.10> ServerName www. jedoch durchaus üblich.beispiel.deny Allow from all </Directory> </VirtualHost> Der HTTP-Server Apache 495 .com"> Order allow.0. Diese Adresse ist beispielsweise auf den von Apache erstellten Fehlerseiten angegeben.ServerAdmin Die E-Mail-Adresse des Serveradministrators. /var/log/apache2/ ist das Standardverzeichnis für die Protokolldateien von Apache. Daher müssen Sie das DocumentRoot-Verzeichnis. ErrorLog Das Fehlerprotokoll dieses virtuellen Hosts.com_log CustomLog /var/log/apache2/www.beispiel.beispiel. jedoch durchaus üblich.

Deaktivierung anderer Module erhalten Sie unter „Server Modules (Server-Module)“ (S. registrierte Ports und dynamische oder private Ports) verwenden. Wenn Sie dieses Modul zum ersten Mal starten. WAN oder Internet) verfügbar zu machen. deaktivieren Sie die vom Webserver unterstützten Skriptsprachen. Im letzten Schritt des Assistenten haben Sie die Möglichkeit. sofern diese nicht für andere Dienste reserviert sind. Network Device Selection (Netzwerkgeräteauswahl) Geben Sie hier die Netzwerkschnittstellen und -ports an.2 Konfigurieren von Apache mit YaST Zur Konfiguration des Webservers mit YaST starten Sie YaST und wählen Sie Network Services (Netzwerkdienste) → HTTP Server (HTTP-Server) aus. 501) beschriebene Dialogfeld geöffnet. um mit der Konfiguration fortzufahren. in denen kein externer Zugriff auf den Webserver erforderlich ist. in dem Sie weitere spezielle Einstellungen vornehmen können. Nach Ausführung des Assistenten wird das unter „HTTP Server Configuration (HTTP-ServerKonfiguration)“ (S. Klicken Sie auf Weiter. 496 Referenz . 502). um die vom Webserver überwachten Ports in der Firewall zu öffnen. Sie können eine beliebige Kombination aus bestehenden Netzwerkschnittstellen und zugehörigen IP-Adressen auswählen. die von Apache auf eingehende Anfragen überwacht werden. Dort müssen Sie einige administrative Einstellungen vornehmen. um das nächste Dialogfeld zu öffnen. Das Schließen der Ports ist nur in Testsituationen sinnvoll. wird der HTTP Server Wizard (HTTP-Server-Assistent) geöffnet. den Expertenkonfigurationsmodus aufzurufen. um den Webserver im Netzwerk (LAN. Informationen zur Aktivierung bzw. Sie können Ports aus allen drei Bereichen (Well-Known-Ports. Die Standardeinstellung ist die Überwachung aller Netzwerkschnittstellen (IP-Adressen) an Port 80. HTTP Server Wizard (HTTP-Server-Assistent) Der HTTP-Server-Assistent besteht aus fünf Schritten. Dies ist erforderlich. Aktivieren Sie Open Firewall for Selected Ports (Firewall für ausgewählte Ports öffnen). Klicken Sie auf Weiter.26.2. Module Mit dieser Konfigurationsoption aktivieren bzw. sobald Sie das HTTP-Server-Modul aufrufen.

Dies ist standardmäßig /srv/www/htdocs.Default Host (Standardhost) Diese Option betrifft den Standard-Webserver. Alle nachfolgenden virtuellen Hosts übernehmen die Konfiguration des Standardhosts. Wie in „Virtuelle Hostkonfiguration“ (S. Zum Hinzufügen neuer Direktiven klicken Sie auf Hinzufügen. Zum Löschen einer Direktive wählen Sie die Direktive aus und klicken Sie auf Löschen. Abbildung 26. wählen Sie den entsprechenden Eintrag in der Tabelle aus und klicken Sie auf Bearbeiten. kann Apache von einem einzigen Computer mehrere virtuelle Hosts bedienen.1 HTTP-Server-Assistent: Default Host (Standardhost) Für den Server gelten folgende Standardeinstellungen: Document Root (Document Root) Der absolute Pfad des Verzeichnisses. 491) beschrieben. Wenn Sie die Hosteinstellungen (auch als Direktiven bezeichnet) bearbeiten möchten. aus dem Apache die Dateien für diesen Host bedient. Der erste in der Konfigurationsdatei deklarierte virtuelle Host wird im Allgemeinen als Standardhost bezeichnet. Der HTTP-Server Apache 497 .

über die Clients den Webserver kontaktieren. Server Name (Servername) Hier wird die Standard-URL festgelegt. Hier werden auch die Zugriffs. ScriptAlias Ähnlich wie die Alias-Direktive ordnet die ScriptAlias-Direktive eine URL einem Speicherort im Dateisystem zu. um den Webserver unter http://FQDN/ zu erreichen.Alias Mithilfe von Alias-Direktiven können URL-Adressen physischen Speicherorten im Dateisystem zugeordnet werden. Dies bedeutet.d/ befinden sich z. sofern die URL via Aliasing auf diesen Pfad verweist. Der Unterschied besteht darin. Eine Änderung dieser Standardeinstellungen sollte nicht erforderlich sein. die nur für das angegebene Verzeichnis gelten. B. die Konfigurationsdateien der externen Module. Alternativ können Sie auch die IP-Adresse verwenden. dass ScriptAlias als Zielverzeichnis einen CGI-Speicherort für die Ausführung von CGI-Skripts festlegt. Include Hier können weitere Konfigurationsdateien hinzugefügt werden. Geben Sie hier keinen willkürlichen Namen ein – der Server muss unter diesem Namen „bekannt“ sein.conf) eingeschlossen. dass über eine URL sogar auf Pfade im Dateisystem außerhalb des Document Root zugegriffen werden kann. /icons.und Anzeigeoptionen für die Verzeichnisse /usr/ share/apache2/icons und /srv/www/cgi-bin konfiguriert. Im Verzeichnis /etc/apache2/conf. 498 Referenz . verweist auf /usr/share/apache2/ icons. Der vorgegebene SUSE Linux-Alias für die in der Verzeichnisindex-Ansicht angezeigten Apache-Symbole. Das Verzeichnis /etc/apache2/conf. Directory (Verzeichnis) Unter dieser Einstellung können Sie mehrere Konfigurationsoptionen zusammenfassen. Verwenden Sie einen qualifizierten Domänennamen (FQDN). Standardmäßig sind alle Dateien in diesem Verzeichnis (*.d/apache2-manual ?conf enthält hingegen alle apache2-manual-Konfigurationsdateien.

Dieser ist identisch mit dem im vorangegangenen Schritt konfigurierten Standardhost. wird nur ein virtueller Host angezeigt. Weitere Informationen über IP-basierte virtuelle Hosts erhalten Sie in „IP-basierte virtuelle Hosts“ (S. Unter Server-Auflösung legen Sie fest. Der HTTP-Server Apache 499 . wie der Host identifiziert wird (nach seinem Namen oder nach seiner IP-Adresse). 493). Diese Adresse ist beispielsweise auf den von Apache erstellten Fehlerseiten angegeben. Server Resolution (Server-Auflösung) Diese Option bezieht sich auf „Virtuelle Hostkonfiguration“ (S.Server Administrator E-mail (E-Mail des Serveradministrators) Hier geben Sie die E-Mail-Adresse des Serveradministrators ein. um mit der Konfiguration fortzufahren. Diese Optionen werden in „Default Host (Standardhost)“ (S. Falls Sie vor Ausführung des HTTP-Assistenten keine manuellen Konfigurationsänderungen vorgenommen haben. Wenn Determine Request Server by HTTP Headers (Anfrage-Server durch HTTP-Header bestimmen) aktiviert ist. um mit dem zweiten Teil der virtuellen Hostkonfiguration fortzufahren. das Root-Verzeichnis für die Serverinhalte (DocumentRoot) und die E-Mail-Adresse des Administrators an. Klicken Sie am Ende der Seite Default Host (Standardhost) auf Weiter. 497) näher erläutert. Unter Server-Identifikation geben Sie den Servernamen. Wenn Determine Request Server by HTTP Headers (Anfrage-Server durch Server-IP-Adresse bestimmen) aktiviert ist. Durch einen Stern neben seinem Servernamen ist er als Standard gekennzeichnet. 491)). 491). Zum Hinzufügen eines Hosts klicken Sie auf Hinzufügen und geben Sie im daraufhin geöffneten Dialogfeld die grundlegenden Informationen über den neuen Host ein. wählt Apache den angeforderten Host entsprechend der vom Client gesendeten HTTP-Header-Informationen aus. Klicken Sie auf Weiter. kann ein virtueller Host die an seinen Servernamen gerichteten Anforderungen beantworten (siehe „Namensbasierte virtuelle Hosts“ (S. 492)). Virtual Hosts (Virtuelle Hosts) In diesem Schritt zeigt der Assistent eine Liste der bereits konfigurierten virtuellen Hosts an (siehe „Virtuelle Hostkonfiguration“ (S.

com/~user bereit. Informationen über SSL und Zertifikate finden Sie in Abschnitt 26. Außerdem erhalten Sie in diesem Schritt eine kurze Zusammenfassung Ihrer bisherigen Konfiguration. Mit der Option Verzeichnisindex geben Sie an. Bei IP-basierten virtuellen Hosts darf jeder verfügbaren IP-Adresse nur ein Host zugewiesen sein. WICHTIG: Erstellen virtueller Hosts Virtuelle Hosts können Sie nicht völlig willkürlich hinzufügen.2. Zusammenfassung Dies ist der abschließende Schritt des Assistenten. Über HTTP Server Expert Configuration (Expertenkonfiguration für HTTP-Server) können Sie hier auch das in „HTTP Server Configuration (HTTP-Server-Konfiguration)“ (S. dann klicken Sie so oft auf Zurück. Wenn Sie SSL aktivieren. 500 Referenz . 523). Statt der Standardeinstellung können Sie aber auch ein oder mehrere andere Dateinamen (jeweils getrennt durch ein Leerzeichen) angeben. Wenn Sie mit den Einstellungen zufrieden sind. bis das entsprechende Dialogfeld angezeigt wird. wie und wann der Apache-Server gestartet werden soll: beim Systemstart oder manuell.html). Möchten Sie Einstellungen ändern. Wenn Sie namensbasierte virtuelle Hosts hinzufügen möchten. müssen Sie auch den Zertifikatpfad angeben. wenn der Client ein Verzeichnis anfordert (standardmäßig ist dies die Datei index. Hier können Sie festlegen.beispiel. müssen die Hostnamen im Netzwerk aufgelöst sein. ob CGI-Skripts zugelassen sind und welches Verzeichnis für diese Skripts verwendet wird. Mit Enable Public HTML (Öffentliches HTML aktivieren) stellen Sie den Inhalt der öffentlichen Benutzerverzeichnisse (~user/public_html/) auf dem Server unter http://www. schließen Sie die Konfiguration mit Beenden ab. welche Datei angezeigt wird. 501) beschriebene Dialogfeld öffnen.6.Im zweiten Teil der virtuellen Hostkonfiguration legen Sie fest. Dort können Sie auch SSL aktivieren. „Konfigurieren von Apache mit SSL“ (S.

Anderenfalls wäre der Webserver von außen Der HTTP-Server Apache 501 . wenn Sie das Dialogfeld mit Beenden schließen. Klicken Sie hingegen auf Abbrechen. die vom Server überwacht werden sollen.2 HTTP-Server-Assistent: Zusammenfassung HTTP Server Configuration (HTTP-Server-Konfiguration) Im Dialogfeld HTTP Server Configuration (HTTP-Server-Konfiguration) können Sie weitaus mehr Einstellungen vornehmen als im Assistenten (dieser wird ohnehin nur bei der Anfangskonfiguration des Webservers ausgeführt). Bearbeiten und Löschen geben Sie unter Listen on Ports (Ports überwachen) die Adressen und Ports an. ob Apache laufen soll (Aktiviert) oder beendet werden soll (Deaktiviert). Listen Ports and Addresses (Überwachte Ports und Adressen) Geben Sie unter HTTP Service (HTTP-Service) an. Dies geschieht erst. Mit den Schaltflächen Hinzufügen. Das Dialogfeld enthält vier Registerkarten. die nachfolgend beschrieben werden.Abbildung 26. Keine der in diesem Dialogfeld vorgenommenen Konfigurationsänderungen wird sofort wirksam. so werden Ihre Konfigurationsänderungen verworfen. das Kontrollkästchen Firewall auf gewählten Ports öffnen zu aktivieren. Vergessen Sie nicht. Standardmäßig werden alle Schnittstellen an Port 80 überwacht.

oder das Fehlerprotokoll überwachen. „Starten und Beenden von Apache“ (S. Diese Funktion ist besonders beim Testen der Konfiguration hilfreich. 503)). Aktivieren und Konfigurieren von Modulen“ (S. aus dem Sie den Webserver auch neu starten oder neu laden können (siehe Abschnitt 26.4. Diese Befehle werden sofort ausgeführt. „Installieren. die zwar bereits installiert. Abbildung 26. 505). Die Protokolldatei wird in einem eigenen Fenster geöffnet. Das Schließen des Ports ist nur in Testsituationen sinnvoll. Weitere Informationen über Module finden Sie in Abschnitt 26.3. Über die Schaltfläche Log Files (Protokolldateien) können Sie das Zugriffs. aber noch nicht in dieser Liste aufgeführt sind.nicht erreichbar.3 HTTP-Server-Konfiguration: Listen Ports and Addresses (Überwachte Ports und Adressen) Server Modules (Server-Module) Über Toggle Status (Status ändern) können Sie Apache2-Module aktivieren und deaktivieren. Über Add Module (Modul hinzufügen) können Sie weitere Module hinzufügen. 502 Referenz . in denen kein externer Zugriff auf den Webserver erforderlich ist.

1.2. 499) beschriebenen Dialogfeldern.Abbildung 26.3 Starten und Beenden von Apache Wenn Apache in YaST konfiguriert wurde (siehe Abschnitt 26.4 HTTP-Server-Konfiguration: Server Modules (Server-Module) „Default Host“ (Standardhost) und „Hosts“ (Hosts) Diese Registerkarten sind identisch mit den in „Default Host (Standardhost)“ (S.2. 497) und „Virtual Hosts (Virtuelle Hosts)“ (S. 200)). Der Befehl rcapache2 akzeptiert folgende Parameter: start Startet Apache. 496)). „Konfigurieren von Apache mit YaST“ (S.2. Zum Starten. 2 und 6 beendet. 26. Der HTTP-Server Apache 503 .2. Dieses Verhalten können Sie im RunlevelEditor von YaST oder mit dem Befehlszeilenprogramm chkconfig ändern. wird Apache beim Systemstart in Runlevel 3 und 5 gestartet und in Runlevel 0. „Init-Skripts“ (S. Beenden oder Manipulieren von Apache auf einem laufenden System verwenden Sie das init-Skript /usr/sbin/rcapache2 (allgemeine Informationen über init-Skripts erhalten Sie unter Abschnitt 8. sofern es noch nicht läuft.

ob ein Neuladen des Webservers erforderlich ist (d.6. „Einrichten eines sicheren Webservers mit SSL“ (S. sofern es noch nicht läuft. TIPP In Produktionsumgebungen ist rcapache2 reload die bevorzugte Methode für einen Neustart von Apache (der z. wird er nun gestartet. h. und schlägt die erforderlichen Argumente für den Befehl rcapache2 vor. ausgeführt wird. 504 Referenz . sofern der Webserver bereits gelaufen ist. Anstelle der beendeten Prozesse werden neue Prozesse gestartet.startssl Startet Apache mit SSL-Unterstützung. Für die Clients kommt es dabei zu keinen Verbindungsabbrüchen. configtest Überprüft die Syntax der Konfigurationsdateien. ist eine explizite Ausführung des Tests in der Regel nicht notwendig. ob sich die Konfiguration geändert hat). ihre Anforderungen vor dem Herunterfahren zu Ende zu führen. try-restart Beendet Apache und startet es danach neu. Falls der Webserver noch nicht gelaufen ist. Neuladen oder Neustarten des Servers automatisch durchgeführt wird. damit eine Konfigurationsänderung wirksam wird). Dies führt zu einem vollständigen „Neustart“ von Apache. ohne den laufenden Webserver zu beeinträchtigen. neu geladen oder neu gestartet. reload oder graceful Beendet den Webserver erst. Bei einem Konfigurationsfehler wird der Webserver ohnehin nicht gestartet. Weitere Informationen über die SSL-Unterstützung finden Sie unter Abschnitt 26. Da dieser Test beim Starten. B. restart Beendet Apache und startet es danach neu. 517). nachdem alle durch Forking erstellten Apache-Prozesse aufgefordert wurden. probe Überprüft..

Erweiterungsmodule Im Allgemeinen sind Erweiterungsmodule im Apache-Softwarepaket enthalten.4 Installieren. Alle anderen Basismodule stehen als gemeinsame Objekte zur Verfügung: Sie sind zwar nicht im ServerBinary enthalten. Apache-Module lassen sich in vier Kategorien einteilen: Basismodule Basismodule sind standardmäßig in Apache enthalten. dass selbst HTTP durch ein Modul verarbeitet wird (http_core).server-status und full-server-status Erstellt einen Dump des kurzen oder vollständigen Statusfensters. „Aktivieren und Deaktivieren von Modulen“ (S. In Apache von SUSE Linux sind nur die Basismodule mod_so und http_core kompiliert. Zur Ausführung des rcapache2-Befehls mit diesem Parameter muss entweder lynx oder w3m installiert sein und das mod_status-Modul muss aktiviert sein. Informationen zum dynamischen Laden von Modulen erhalten Sie unter Abschnitt 26. TIPP: Weitere Flags Weitere Flags. die Sie mit dem Befehl rcapache2 angeben. Außerdem muss /etc/sysconfig/apache2 unter APACHE_SERVER_FLAGS das Flag status enthalten. Apache-Module können bei der Entwicklung in die Apache-Binaries kompiliert oder während der Laufzeit dynamisch geladen werden. Sämtliche Funktionen mit Ausnahme der wichtigsten Aufgaben werden in Modulen zur Verfügung gestellt. Dies geht sogar so weit. Der HTTP-Server Apache 505 . können jedoch während der Laufzeit hinzugefügt werden. 26.4. jedoch nicht statisch im Server kompiliert. die während der Laufzeit in Apache geladen werden können. 506). Aktivieren und Konfigurieren von Modulen Die Apache-Software ist modulartig aufgebaut.2. In SUSE Linux stehen diese Module als gemeinsame Objekte zur Verfügung. werden direkt an den Webserver weitergeleitet.

1 Installieren von Modulen Wenn Sie das Standardinstallationsverfahren für Apache durchgeführt haben (siehe Abschnitt 26. Manuell können Sie die Module mit dem Befehl a2enmod mod_foo bzw.4. Alle anderen Module werden. die ohne großen Aufwand sofort verwendet werden können. 486)). 26. Perl. 506 Referenz . In YaST können Sie weitere externe Module installieren. 496) beschriebenen Modulkonfiguration aktivieren oder deaktivieren. Anforderungen an den Webserver anzunehmen und zu verarbeiten. a2dismod mod_foo aktivieren bzw. Python und Ruby können Sie in YaST mit der im Abschnitt „HTTP Server Wizard (HTTP-Server-Assistent)“ (S.2 Aktivieren und Deaktivieren von Modulen Die Skriptsprachenmodule PHP5.2.1.4. a2enmod -l gibt eine Liste aller zurzeit aktiven Module aus. Starten Sie dazu YaST und wählen Sie Software → Software Management (Software-Management). Wählen Sie danach Filter → Search (Suche) und suchen Sie nach apache. aktiviert oder deaktiviert. SUSE Linux bietet jedoch einige externe Module an. deaktivieren. „Installation“ (S. Die Ergebnisliste zeigt nun neben anderen Paketen alle verfügbaren externen Apache-Module an.Externe Module Externe Module sind nicht in der offiziellen Apache-Distribution enthalten.und Erweiterungsmodulen sowie dem Multiprocessing-Modul Prefork und dem externen Modul PHP5 installiert. 26. 502) beschrieben. wie im Abschnitt „Server Modules (Server-Module)“ (S. wird Apache mit allen Basis. und stellen damit das Kernstück der Webserver-Software dar. Multiprocessing-Module Multiprocessing-Module (MPMs) sind dafür verantwortlich.

d/vhost. Die Konfigurationsdateien externer Module befinden sich im Verzeichnis /etc/apache2/conf.2 befindet sich noch im Versuchsstadium. mod_authz_user für die Benutzerautorisierung). müssen Sie sicherstellen. mod_auth* Die Authentifizierungsmodule stellen zwei Authentifizierungsmethoden bereit: Die Standardauthentifizierung mit mod_auth_basic und die Digest-Authentifizierung mit mod_auth_digest. mod_authn_file für die Authentifizierung auf Basis einer Textdatei) und mit dem Autorisierungsmodul mod_authz_* (z.2/mod/.conf einschließen. Informationen zu den einzelnen Modulen erhalten Sie auch unter http://httpd. mod_alias Dieses Modul stellt die Direktiven Alias und Redirect bereit.apache. Dieses Modul ist standardmäßig aktiviert.2/howto/ auth. eine angeforderte URL umleiten. Beispiele hierzu finden Sie in der Datei /etc/apache2/vhosts. mod_auth_basic und mod_auth_digest funktionieren nur gemeinsam mit dem Authentifizierungsanbietermodul mod_authn_* (z. Damit können Sie eine URI einem bestimmten Verzeichnis zuordnen (Alias) bzw.d/ und werden standardmäßig nicht geladen. B.WICHTIG: Einschließen der Konfigurationsdateien externer Module Wenn Sie externe Module manuell aktivieren. An dieser Stelle gehen wir daher nur kurz auf die wichtigsten Module ein. Wenn Sie auf allen virtuellen Hosts die gleichen Module benötigen.html Der HTTP-Server Apache 507 .apache.3 Basis. B.org/docs/2. 26. Die Digest-Authentifizierung in Apache 2. können Sie die Konfigurationsdateien aus diesem Verzeichnis mit *. Anderenfalls müssen Sie die Dateien einzeln einschließen.4.und Erweiterungsmodule Alle Basis. dass auch ihre Konfigurationsdateien in allen virtuellen Hostkonfigurationen geladen werden.org/docs/2. Weitere Informationen zu diesem Thema erhalten Sie im Artikel „Gewusst wie: Authentifizierung“ unter http://httpd.und Erweiterungsmodule werden ausführlich in der Apache-Dokumentation beschrieben.template.

mod_autoindex Wenn keine Indexdatei vorhanden ist (z. Die Standardkonfigurationsdatei dieses Moduls befindet sich unter /etc/apache2/ und heißt mod _autoindex-defaults. index. mod_dir mod_dir stellt die DirectoryIndex-Direktive bereit. Standardmäßig erhält nur localhost Zugriff auf diese URL. 508 Referenz . mod_cgi mod_cgi wird zur Ausführung von CGI-Skripts benötigt. mod_include mod_include ermöglicht die Verwendung von serverseitigen Includes (SSI). Dieses Modul ist standardmäßig aktiviert. wenn in einer Verzeichnisanforderung der nachgestellte Schrägstrich fehlt. Dieses Modul ist standardmäßig aktiviert. Aus Sicherheitsgründen sollte der Zugriff auf diese URL generell eingeschränkt sein. mod_info Dieses Modul stellt unter http://localhost/server-info/ eine umfassende Übersicht über die Serverkonfiguration bereit. Dieses Modul ist standardmäßig aktiviert. Dieses Modul ist standardmäßig aktiviert. Allerdings sind Verzeichnislisten durch die Options-Direktive standardmäßig deaktiviert – Sie müssen diese Einstellung daher in Ihrer virtuellen Hostkonfiguration ändern. die die grundlegende Funktionalität für die dynamische Generierung von HTML-Seiten bereitstellen. mod_deflate Mit diesem Modul kann Apache so konfiguriert werden.html).html). dass bestimmte Dateitypen automatisch vor der Bereitstellung komprimiert werden. generiert mod_autoindex Verzeichnislisten.conf konfiguriert.und Browser-Caches durch Zustellung eines Expires-Header aktualisiert werden. Das Aussehen dieser Indizes kann konfiguriert werden. Außerdem leitet dieses Modul automatisch zur korrekten URI um. Dieses Modul ist standardmäßig aktiviert.conf. mit der Sie festlegen können. mod_info wird in der Datei /etc/apache2/mod_info . welche Dateien bei Anforderung eines Verzeichnisses automatisch zurückgegeben werden (standardmäßig index. wie häufig Ihre Dokumente über Proxy. B. mod_expires Mit mod_expires legen Sie fest.

automatisch zu korrigieren. Mit mod_rewrite können Sie URLs auf Basis verschiedener Regeln umleiten. Dieses Modul ist standardmäßig aktiviert.conf konfiguriert. mod_speling mod_speling versucht. text/html für HTMLDokumente). Weitere Einzelheiten finden Sie unter Abschnitt 26.2/content-negotiation. bietet aber mehr Funktionen und ist somit flexibler. mod_status Dieses Modul stellt unter http://localhost/server-status/ Informationen über die Aktivität und Leistung des Servers bereit. Dieses Modul ist standardmäßig aktiviert. typografische Fehler in URLs. mod_status wird in der Datei /etc/apache2/mod _status. dass eine Datei auf Basis seiner Dateinamenerweiterung mit dem korrekten MIME-Header bereitgestellt wird (z. B. mod_mime Dieses Modul sorgt dafür. Weitere Informationen erhalten Sie unter http://httpd. Header anfordern und einiges mehr.apache. Der HTTP-Server Apache 509 . Dieses Modul ist standardmäßig aktiviert.6. Aus Sicherheitsgründen sollte der Zugriff auf diese URL generell eingeschränkt sein. Dieses Modul ist standardmäßig aktiviert. mod_suexec Dieses Modul ermöglicht die Ausführung von CGI-Skripts unter einem anderen Benutzer oder einer anderen Gruppe. Standardmäßig erhält nur localhost Zugriff auf diese URl.org/docs/2.html. mod_ssl Dieses Modul ermöglicht verschlüsselte Verbindungen zwischen dem Webserver und den Clients. beispielsweise die Groß/Kleinschreibung. mod_rewrite Dieses Modul stellt die gleiche Funktionalität wie mod_alias bereit. mod_negotiation Dieses Modul ist für die Inhaltsverhandlung erforderlich. „Einrichten eines sicheren Webservers mit SSL“ (S.mod_log_config Mit diesem Modul konfigurieren Sie den Aufbau der Apache-Protokolldateien. Dieses Modul ist standardmäßig aktiviert. 517).

x: Er isoliert jede einzelne Anforderung und verarbeitet sie in einem separaten untergeordneten Prozess (Forking). WICHTIG: MPMs in diesem Dokument In diesem Dokument wird davon ausgegangen. 510 Referenz . Worker-MPM Das Worker-MPM implementiert einen Multithread-Webserver. Diese Ansatzweise macht den Apache-Server durch den geringeren Ressourcenkonsum leistungsfähiger als mit dem Prefork-MPM. Der Vorteil von Threads gegenüber Prozessen ist deren geringerer Ressourcenkonsum. was die Handhabung von Anforderungen betrifft. verarbeitet das Worker-MPM Anforderungen durch Threads mit Serverprozessen. Anstatt lediglich untergeordnete Prozesse zu erstellen (Forking). Eine Beeinträchtigung aller Anforderungen durch wenige problematische Anforderungen und somit eine Sperre des Webservers lassen sich dadurch vermeiden. Für UNIX-basierte Betriebssysteme gilt das Prefork-MPM als Standard-MPM. Die untergeordneten Prefork-Prozesse sind auf mehrere Threads aufgeteilt (Multithreading). ähnlich wie Apache Version 1. dass Apache mit dem PreforkMPM verwendet wird. Ein Thread ist die „Lightweight-Version“ eines Prozesses. konsumiert aber mehr Systemressourcen wie das Worker-MPM. der keine Threads verwendet.4.4 Multiprocessing-Module SUSE Linux bietet zwei Multiprocessing-Module (MPMs) für Apache. Dieses Modul ist standardmäßig aktiviert. 26. Mit diesem Modul verhält sich der Webserver. Prefork-MPM Das Prefork-MPM implementiert einen Prefork-Webserver. Die prozessbasierte Vorgehensweise des Prefork-MPM bietet zwar Stabilität. In der Konfiguration muss die UserDir-Direktive angegeben sein.mod_userdir Dieses Modul ermöglicht benutzerspezifische Verzeichnisse unter ~user/.

FastCGI FastCGI ist eine sprachunabhängige. Im schlimmsten Fall fällt der Server dadurch aus. Von einer Verwendung des Worker-MPM in Verbindung mit mod_php wird daher abgeraten.4. Durch den persistenten. WARNUNG: Verwendung von PHP-Modulen mit MPMs Nicht alle verfügbaren PHP-Module sind Thread-sicher.Ein gravierender Nachteil ist allerdings die geringere Stabilität des Worker-MPM: Ein beschädigter Thread kann sich auf alle Threads des Prozesses auswirken. Besonders bei gleichzeitiger Verwendung der Common Gateway Interface (CGI) auf einem überlasteten Apache-Server kann es zu internen Serverfehlern kommen. 26.5 Externe Module Nachfolgend finden Sie eine Liste aller externen Module. die erstklassige Leistung ohne die Einschränkungen serverspezifischer APIs bietet. Gegen die Verwendung des Worker-MPM in Apache spricht auch die Tatsache. dass nicht alle verfügbaren Apache-Module Thread-sicher sind und daher nicht in Verbindung mit dem WorkerMPM eingesetzt werden können. da Threads in diesem Fall unter Umständen nicht in der Lage sind. Der HTTP-Server Apache 511 .conf Weitere Informationen: /usr/share/doc/packages/apache2-mod _fastcgi mod_perl mod_perl ermöglicht die Ausführung von Perl-Skripts in einem eingebetteten Interpreter. mit den Systemressourcen zu kommunizieren. FastCGIAnwendungen liegen persistent vor und sind daher äußerst schnell. Die Dokumentation zu den einzelnen Modulen finden Sie in den jeweils genannten Verzeichnissen. skalierbare Erweiterung zu CGI. Bei einer Anforderung kommt es zu keiner Verzögerung durch den Start und die Initialisierung der Anwendung. im Server eingebetteten Interpreter lassen sich Verzögerungen durch den Start eines externen Interpreters und den Start von Perl vermeiden.d/mod_fastcgi. die mit SUSE Linux ausgeliefert werden. Paketname: apache2-mod_fastcgi Konfigurationsdatei: /etc/apache2/conf.

Paketname: apache2-mod_python Weitere Informationen: /usr/share/doc/packages/apache2-mod _python mod_ruby mod_ruby bettet den Ruby-Interpreter in den Apache-Webserver ein. in HTML eingebettete Skriptsprache.Paketname: apache2-mod_perl Konfigurationsdatei: /etc/apache2/conf.conf Weitere Informationen: /usr/share/doc/packages/apache2-mod_perl mod_php5 PHP ist eine serverseitige.conf Weitere Informationen: /usr/share/doc/packages/apache2-mod_php5 mod_python mod_python bettet Python in den Apache-Webserver ein. Dadurch können Ruby CGI-Skripts in Originalversion ausgeführt werden. Diese Skripts werden mit mod_ruby wesentlich schneller ausgeführt. plattformübergreifende. Paketname: apache2-mod_ruby Weitere Informationen: /usr/share/doc/packages/apache2-mod_ruby mod_jk-ap20 Dieses Modul stellt Konnektoren zwischen Apache und einem Tomcat ServletContainer bereit.d/php5. Dies bringt Ihnen einen erheblichen Leistungsgewinn und zusätzliche Flexibilität bei der Entwicklung webbasierter Anwendungen.d/mod_perl. Paketname: mod_jk-ap20 Weitere Informationen: /usr/share/doc/packages/mod_jk-ap20 512 Referenz . Paketname: apache2-mod_php5 Konfigurationsdatei: /etc/apache2/conf.

Dadurch ergeben sich Dynamic Shared Objects (DSOs). Der HTTP-Server Apache 513 .26. Zur Installation und Aktivierung eines Moduls aus dem Quellcode verwenden Sie den Befehl cd /Pfad/der/Modulquelle. apxs2 -cia mod_foo. apxs2-prefork und apxs2-worker installieren ihre Module hingegen in /usr/lib/apache2-prefork bzw. in /usr/ lib/apache2-worker.4. • /usr/sbin/apxs2-worker: Für die Entwicklung von Worker-MPM-Modulen. • /usr/sbin/apxs2-prefork: Für die Entwicklung von Prefork-MPMModulen. Die Module werden im Verzeichnis /usr/lib/ apache2 installiert. Die von apxs2 installierten Module können für alle MPMs verwendet werden. die während der Laufzeit in Apache geladen werden können.6 Kompilieren von Modulen Apache kann von erfahrenen Benutzern durch selbst entwickelte Module erweitert werden. dass sie nur für die jeweiligen MPMs (also „Prefork“ bzw.c (-c kompiliert das Modul. Für die Entwicklung eigener Apache-Module und für die Kompilierung von Drittanbieter-Modulen sind neben dem Paket apache2-devel auch die entsprechenden Entwicklungstools erforderlich. die zur Kompilierung von Apache-Erweiterungsmodulen erforderlich sind. apxs2 ermöglicht die Kompilierung und Installation von Modulen aus dem Quellcode (einschließlich der erforderlichen Änderungen an den Konfigurationsdateien). -i installiert es und -a aktiviert es). Die Binaries von apxs2 befinden sich unter /usr/sbin: • /usr/sbin/apxs2: Für die Entwicklung von Erweiterungsmodulen. die mit allen MPMs verwendbar sind. Die Module werden im Verzeichnis /usr/lib/apache2-prefork installiert. Alle weiteren Optionen von apxs2 werden auf der Manualpage apxs2(1) beschrieben. „Worker“) verwendet werden können. apache2-devel enthält unter anderem die apxs2-Tools. apxs2 installiert seine Module in /usr/lib/apache2. Die anderen beiden Programme installieren ihre Module so.

müssen Sie das betreffende Verzeichnis entsperren und für CGISkripts konfigurieren.2. 26. CGI-Skripts können in jeder beliebigen Programmiersprache geschrieben sein. In der Regel werden aber die Skriptsprachen Perl oder PHP verwendet. Weitere Informationen hierzu erhalten Sie unter Abschnitt 26. Dieses Verzeichnis ist bereits für die Ausführung von CGI-Skripts konfiguriert. so genannten CGI-Skripts.5. WARNUNG: CGI-Sicherheit Die Zulassung der CGI-Skriptausführung auf dem Server ist ein Sicherheitsrisiko. Informationen zur Aktivierung von Modulen finden Sie unter Abschnitt 26. muss das Modul mod_cgi aktiviert sein. Damit Apache in der Lage ist. „Vermeiden von Sicherheitsproblemen“ (S. 514 Referenz .4. Wenn Sie eine virtuelle Hostkonfiguration erstellt haben (siehe „Virtuelle Hostkonfiguration“ (S.26.7. die von CGI-Skripts erstellten Inhalte bereitzustellen.1 Konfiguration in Apache In SUSE Linux ist die Ausführung von CGI-Skripts nur im Verzeichnis /srv/www/ cgi-bin/ erlaubt. „Aktivieren und Deaktivieren von Modulen“ (S.5 Aktivieren von CGI-Skripts Die Common Gateway Interface (CGI) von Apache ermöglicht die dynamische Erstellung von Inhalten mit Programmen bzw. Außerdem ist mod_alias erforderlich. 491)) und Ihre CGI-Skripts in einem Host-spezifischen Verzeichnis ablegen möchten. 524). Beide Module sind standardmäßig aktiviert. 506).

pl und . Dateien mit den Erweiterungen . kopieren Sie es in das Verzeichnis /srv/www/cgi-bin/ bzw.com_cgi-bin/"❶ <Directory "/srv/www/beispiel. Über den Webserver zugängliche Dateien sollten dem root-Benutzer gehören (siehe auch Abschnitt 26. in das Skriptverzeichnis Ihres virtuellen Hosts (/srv/www/beispiel.deny❹ Allow from all </Directory> ❶ ❷ ❸ ❹ Fordert Apache auf. Dieses Skript gibt den Inhalt einiger Umgebungsvariablen als Klartext aus. als CGI-Programmen und -Skripts ein MIME-Typ-Header wie Content-type: text/html vorangestellt sein muss.com_cgi-bin/"> Options +ExecCGI❷ AddHandler cgi-script .und Allow-Direktiven legen den Standardzugriffsstatus sowie die Reihenfolge fest.cgi um. aber auch Klartext.com_cgi-bin/) und benennen Sie es in test. Wenn Sie dieses Skript ausprobieren möchten.und Deny-Direktiven ausgewertet werden. Dieser Header wird an den Client gesendet. damit er weiß. alle Dateien in diesem Verzeichnis als CGI-Skripts zu behandeln Aktiviert die Ausführung von CGI-Skripts Fordert den Server auf. Da der Der HTTP-Server Apache 515 .Beispiel 26. „Vermeiden von Sicherheitsproblemen“ (S. Unter /usr/share/doc/packages/apache2/test-cgi stellt Apache ein einfaches Testskript bereit. in der Allow. in diesem Beispiel werden „deny“-Anweisungen vor „allow“-Anweisungen ausgewertet und der Zugriff ist von jedem Ort aus möglich. welchen Inhaltstyp er empfängt. Bilder oder Ähnliches. in der Regel einem Webbrowser. 26.2 Ausführen eines Beispielskripts Die CGI-Programmierung unterscheidet sich von der herkömmlichen Programmierung insoweit.cgi .cgi als CGI-Skripts zu behandeln. passen Sie diese Anweisung entsprechend Ihren Anforderungen an Die Order.7.5 CGI-Konfiguration für virtuelle Hosts ScriptAlias /cgi-bin/ "/srv/www/beispiel.5.pl❸ Order allow. verstanden werden – dies ist in den meisten Fällen HTML. 524)). Darüber hinaus muss die Skriptausgabe vom Client.

cgi aus. Falls Sie aber eigene Programme verwenden. führen Sie das Skript im CGIStandardverzeichnis /srv/www/cgi-bin/ aus.3 Fehlerbehebung Wenn Sie nach der Ausführung des CGI-Testskripts statt des Testskriptberichts eine Fehlermeldung erhalten. müssen CGI-Skripts von jedermann ausgeführt und gelesen werden können.Webserver unter einem anderen Benutzer ausgeführt wird.com/cgi-bin/test.cgi aus.cgi auf. 516 Referenz . Wenn Sie die Datei test.cgi oder http://example. überprüfen Sie Folgendes: CGI-Fehlerbehebung • Haben Sie den Server nach der Konfigurationsänderung neu geladen? Überprüfen Sie dies mit rcapache2 probe. Rufen Sie danach http://localhost/cgi-bin/test. Rufen Sie das Skript dazu mit http://localhost/cgi-bin/test. sollten Sie diese immer auf Programmierfehler untersuchen. ist dieses richtig konfiguriert? Falls Sie sich nicht sicher sind. • Falls Sie ein benutzerdefiniertes CGI-Verzeichnis eingerichtet haben. • Wurden die richtigen Berechtigungen zugewiesen? Wechseln Sie in das CGI-Verzeichnis und führen Sie ls -l test. Wechseln Sie daher in das CGIVerzeichnis und führen Sie den Befehl chmod 755 test. 26. Nun sollte der „CGI/1.cgi auf. um die entsprechenden Berechtigungen einzurichten.cgi nicht bearbeitet haben. Die Befehlsausgabe sollte mit folgender Zeile beginnen: -rwxr-xr-x 1 root root • Überprüfen Sie das Skript auf Programmierfehler.0Testskriptbericht“ angezeigt werden.5. dürfte sie keine Programmierfehler enthalten.

Zu diesem Zweck sendet der Server vor der Beantwortung von Anforderungen an eine URL ein SSL-Zertifikat mit Informationen.1 Erstellen eines SSL-Zertifikats Wenn Sie SSL/TSL mit dem Webserver einsetzen möchten. Die Verwendung von mod_ssl in Apache erkennen Sie in URLs am Präfix https:// (statt http://). damit beide Endpunkte jeweils die Identität des anderen Endpunkts überprüfen können. die die Identität des Servers nachweisen. 26. mod_ssl implementiert die SSL/TSL-Protokolle nicht selbst. dass der Server eindeutig der richtige Endpunkt der Kommunikation ist. das allein zum Testen verwendet wird. wird zwischen dem Webserver und dem Client eine private Verbindung eingerichtet. mod_ssl bietet mittels der Protokolle Secure Sockets Layer (SSL) und Transport Layer Security (TLS) eine sichere Verschlüsselung für die HTTP-Kommunikation zwischen einem Client und dem Webserver. Die Datenintegrität bleibt dadurch gewährleistet und Client und Server können sich gegenseitig authentifizieren. die sicherstellt. sondern fungiert als Schnittstelle zwischen Apache und einer SSL-Bibliothek. Wenn Sie SSL/TSL verwenden. Dies garantiert. dass Informationen ohne das Risiko der Freigabe sensitiver Klartextinhalte übertragen werden.6 Einrichten eines sicheren Webservers mit SSL Vertrauliche Daten wie Kreditkarteninformationen sollten nur über eine sichere. der jeder der beteiligten Benutzer vertraut. Sie können drei verschiedene Zertifikattypen erstellen: ein „Dummy“-Zertifikat. Dieses Zertifikat ist für die Autorisierung zwischen Webserver und Client erforderlich. Außerdem wird durch das Zertifikat eine verschlüsselte Verbindung zwischen dem Client und dem Server hergestellt. Zum Nachweis der Zertifikatintegrität muss das Zertifikat von einer Organisation signiert sein. müssen Sie ein SSL-Zertifikat erstellen. OpenSSL wird bei der Installation von Apache automatisch installiert. verschlüsselte Verbindung mit Authentifizierung zwischen Webserver und Client übertragen werden. In SUSE Linux wird die OpenSSL-Bibliothek verwendet.6. ein selbst signiertes Zertifikat für einen bestimmten Der HTTP-Server Apache 517 .26.

key/server. 518 Referenz .html. sondern nur zum Testen. und ein Zertifikat. Die Zertifikaterstellung besteht im Grunde nur aus zwei Schritten: Zunächst wird ein privater Schlüssel für die Zertifizierungsstelle generiert und danach wird das Serverzertifikat mit diesem Schlüssel signiert. Dieses Skript erstellt oder überschreibt die folgenden Dateien: • /etc/apache2/ssl. der Ihnen vertraut.apache. TIPP: Weitere Informationen Weitere Informationen über das Konzept von SSL/TSL und diesbezügliche Festlegungen finden Sie unter http://httpd.crt im Verzeichnis /srv/www/htdocs/ CA.org/docs/2.crt/ca. öffentlich bekannten Zertifizierungsstelle (CA) signiert wurde.crt • /etc/apache2/ssl.Benutzerkreis.crt • /etc/apache2/ssl.csr Außerdem wird eine Kopie der Datei ca. WICHTIG Verwenden Sie Dummy-Zertifikate niemals in Produktionsumgebungen.csr/server. Erstellen eines „Dummy“-Zertifikats Die Erstellung eines Dummy-Zertifikats ist einfach.key • /etc/apache2/ssl. Sie brauchen dazu lediglich das Skript /usr/bin/gensslcert aufzurufen. das von einer unabhängigen.crt/server.crt zum Herunterladen bereitgestellt.2/ssl/ssl_intro.

2 Generating RSA private key for CA (1024 bit) (Privaten RSA-Schlüssel für CA (1024 Bit) erstellen) Keine Eingabe erforderlich. geben Sie „. später im Zertifikat angezeigt. was Sie hier eingeben.509 certificate signing request for CA (X. von denen einige Benutzereingaben erfordern. beantworten. Prozedur 26. reicht unter Umständen ein von Ihrer eigenen Zertifizierungsstelle signiertes Zertifikat aus. Geben Sie an dieser Stelle nur gültige Daten ein. nach dem Land oder der Organisation. z. Schließlich wird alles. der aus neun Schritten besteht. Wechseln Sie dazu zunächst in das Verzeichnis /usr/share/ doc/packages/apache2 und führen Sie den folgenden Befehl aus: . Wenn eine Frage nicht auf Sie zutrifft oder Sie eine Antwort offen lassen möchten. Unter Common Name (allgemeiner Name) müssen Sie den Namen der Zertifizierungsstelle eingeben. 3 Generating X. Geben Sie hier einen aussagekräftigen Namen ein.sh make --no-print-directory /usr/bin/openssl /usr/sbin/ custom.“ ein. Dazu müssen Sie einige Fragen. Die Erstellung eines selbst signierten Zertifikats ist ein interaktiver Vorgang.1 Erstellen eines selbst signierten Zertifikats mit mkcert./mkcert. Sie müssen nicht alle Fragen beantworten.Erstellen eines selbst signierten Zertifikats Wenn Sie einen sicheren Webserver für Ihr Intranet oder einen bestimmten Benutzerkreis einrichten. B. Diesen Befehl sollten Sie keinesfalls außerhalb dieses Verzeichnisses ausführen.509-Zertifikatsignierungsanforderung für CA erstellen) Hier erstellen Sie den DN (Distinguished Name) der Zertifizierungsstelle. da einige ältere Browser Probleme mit DSA haben.sh 1 Decide the signature algorithm used for certificates (Signaturalgorithmus für Zertifikat auswählen) Wählen Sie RSA aus ( R . die Standardeinstellung). Der HTTP-Server Apache 519 . beispielsweise Zertifizierungsstelle von My company. Das Programm gibt eine Reihe von Eingabeaufforderungen aus.

5 Generating RSA private key for SERVER (1024 bit) (Privaten RSA-Schlüssel für SERVER (1024 Bit) erstellen) Keine Eingabe erforderlich. dass das Zertifikat nicht mit dem Server übereinstimmt. Ihre Antworten betreffen jedoch den Webserver und müssen nicht unbedingt identisch mit den für die Zertifizierungsstelle eingegebenen Daten sein (der Server kann sich z. B. B.509-Zertifikat erstellen) Wählen Sie Zertifikatversion 3 aus (die Standardeinstellung).4 Generating X. 7 Generating X.509-Zertifikatsignierungsanforderung für SERVER erstellen) Hier erstellen Sie den DN für den Serverschlüssel.509 certificate signing request for SERVER (X. an einem anderen Standort befinden).509 certificate for CA signed by itself (Von CA selbst signiertes X.beispiel.509-Zertifikat für CA erstellen) Wählen Sie Zertifikatversion 3 aus (die Standardeinstellung). WICHTIG: Auswahl eines Common Name Als Common Name (allgemeiner Name) müssen Sie hier den vollständig qualifizierten Hostnamen des sicheren Servers eingeben (z. www. Es werden nahezu die gleichen Fragen gestellt wie für den DN der Zertifizierungsstelle. 8 Encrypting RSA private key of CA with a pass phrase for security (Privaten RSA-Schlüssel der CA aus Sicherheitsgründen mit einem Passwort verschlüsseln) 520 Referenz .509 certificate signed by own CA (Von eigener CA signiertes X. 6 Generating X. Anderenfalls gibt der Browser beim Zugriff auf den Webserver eine Warnung mit dem Hinweis aus.com).

sondern in den passenden Verzeichnissen unter /etc/apache2/. bevor der Startversuch des Servers wegen Zeitüberschreitung abgebrochen wird. Aus diesem Verzeichnis können die Benutzer die Zertifizierungsstelle in ihren Webbrowsern der Liste der bekannten und vertrauenswürdigen Zertifizierungsstellen hinzufügen. die Zertifikatdatei der Zertifizierungsstelle aus dem Verzeichnis /etc/apache2/ssl. 9 Encrypting RSA private key of SERVER with a pass phrase for security (Privaten RSA-Schlüssel des SERVERS aus Sicherheitsgründen mit einem Passwort verschlüsseln) Wenn Sie den Serverschlüssel mit einem Passwort verschlüsseln. müssen Sie dieses Passwort bei jedem Start des Webservers eingeben. den privaten Schlüssel der Zertifizierungsstelle mit einem Passwort zu verschlüsseln. Denken Sie aber daran.crt in ein Verzeichnis zu kopieren. in dem die Benutzer auf die Datei zugreifen können.Aus Sicherheitsgründen empfiehlt es sich. dass nur autorisierte Personen Zugriff auf den Schlüssel haben. dass Ihr Schlüssel in diesem Fall ungeschützt ist.crt/ca. und stellen Sie sicher. Anderenfalls bleibt Ihnen unter Umständen nicht genügend Zeit für die Eingabe des Passworts. WICHTIG: Verschlüsseln des Serverschlüssels Wenn Sie sich dennoch entscheiden. Die Dateien wurden allerdings nicht. sollten Sie den APACHE_TIMEOUT-Wert in /etc/sysconfig/apache2 heraufsetzen. Das neu erstellte Zertifikat ist ein Jahr lang gültig. Der letzte Schritt besteht darin. Wäre die Zertifizierungsstelle nicht in dieser Liste enthalten. Aus diesem Grund sollten Sie diese Frage mit N beantworten. Die Ergebnisseite des Skripts enthält eine Liste der generierten Zertifikate und Schlüssel. Dies macht den automatischen Start des Webservers beim Hochfahren des Computers oder einen Neustart des Webservers nahezu unmöglich. würde der Browser melden. Wählen Sie daher J aus und geben Sie ein Passwort ein. im lokalen Verzeichnis conf erstellt. den Serverschlüssel mit einem Passwort zu verschlüsseln. wie im Skript angegeben. Der HTTP-Server Apache 521 . dass das Zertifikat von einer unbekannten Zertifizierungsstelle ausgegeben wurde.

Zertifizierungsstellen sind vertrauenswürdige unabhängige Parteien. B. Danach müssen Sie einen Distinguished Name (DN) eingeben. Geben Sie an dieser Stelle nur gültige Daten ein. falls der Schlüssel kompromittiert wird) und einen alternativen Unternehmensnamen eingeben. das durch eine solche Zertifizierungsstelle signiert wurde. beantworten. Anfordern eines offiziell signierten Zertifikats Es gibt verschiedene offizielle Zertifizierungsstellen. verfügen in der Regel über ein offiziell signiertes Zertifikat.thawte .pem. Schließlich wird alles. Für einen öffentlichen Online-Versand wäre ein solches Zertifikat z.com). Sichere Webserver. die Ihre Zertifikate signieren. geben Sie „. B. Der Name der CSR-Datei lautet newreq.verisign. Das Skript fragt zunächst nach dem Passwort für die Verschlüsselung der CSR. beispielsweise Zertifizierungsstelle von My company. Die CSR wird in dem Verzeichnis erstellt. Dazu müssen Sie einige Fragen. Zertifikate. Wenn eine Frage nicht auf Sie zutrifft oder Sie eine Antwort offen lassen möchten. Unter Common Name (allgemeiner Name) müssen Sie den Namen der Zertifizierungsstelle eingeben. denen Sie bekannt sind und die Ihnen als Zertifizierungsstelle vertrauen. Geben Sie hier einen aussagekräftigen Namen ein. kann daher voll und ganz vertraut werden. deren Inhalte für die Öffentlichkeit bereitstehen. Zertifikatsignierungsanforderung). werden daher von Browsern automatisch akzeptiert. die von diesen Zertifizierungsstellen signiert wurden. sondern eine CSR (Certificate Signing Request.“ ein. 522 Referenz . Zur Anforderung eines offiziell signierten Zertifikats senden Sie kein unsigniertes Zertifikat an die Zertifizierungsstelle. Einem Zertifikat.WICHTIG: Selbst signierte Zertifikate Verwenden Sie selbst signierte Zertifikate nur auf einem Webserver. Zur Erstellung einer CSR rufen Sie das Skript /usr/share/ssl/misc/CA.com/) und Verisign (www. nicht geeignet. Diese und andere Zertifizierungsstellen sind bereits in Browsern kompiliert. aus dem Sie das Skript aufgerufen haben. auf den Benutzer zugreifen. was Sie hier eingeben. nach dem Land oder der Organisation. überprüft und später im Zertifikat angezeigt. Zum Schluss müssen Sie noch ein Challenge Passwort (zur Vernichtung des Zertifikats. z. Die bekanntesten offiziellen Zertifizierungsstellen sind Thawte (http://www.sh -newreq auf. Sie müssen nicht alle Fragen beantworten.

der Port 80 überwacht.6. 491). Wenn Sie sich zuvor entschieden haben.und TLS-Anforderungen. Diese enthält SSL-spezifische Direktiven. der Port 443 überwacht.d/vhost-ssl.2 Konfigurieren von Apache mit SSL Port 443 ist auf dem Webserver der Standardport für SSL. Informationen über die Basiskonfiguration eines virtuellen Hosts finden Sie unter „Virtuelle Hostkonfiguration“ (S. die Firewall für den SSL-aktivierten Apache-Webserver an Port 443 zu öffnen. Zur Aktivierung öffnen Sie /etc/sysconfig/apache2 in einem Editor und suchen Sie nach APACHE_MODULES. In der Regel verteilen separate virtuelle Hosts die Anforderungen für Port 80 und Port 443 an separate virtuelle Server. Für den Anfang sollte es ausreichen. damit die Änderungen wirksam werden. 116)). die Werte der folgenden Direktiven einzustellen: • DocumentRoot • ServerName • ServerAdmin Der HTTP-Server Apache 523 . Ihr Serverzertifikat durch ein Passwort zu verschlüsseln. Zur Verwendung von SSL muss SSL in der globalen Serverkonfiguration aktiviert sein. Starten Sie den Server anschließend neu.template. und einem SSL/TLS-aktivierten Apache-Server. Zwischen einem „normalen“ Apache-Webserver. In der Tat kann die gleiche Apache-Instanz sowohl HTTP als auch HTTPS ausführen. damit Ihnen beim Start von Apache genügend Zeit für die Eingabe des Passworts bleibt. sofern dieser Eintrag noch nicht vorhanden ist (mod_ssl ist standardmäßig aktiviert). Suchen Sie anschließend nach APACHE_SERVER_FLAGS und fügen Sie „SSL“ hinzu. WICHTIG: Firewall-Konfiguration Vergessen Sie nicht. sollten Sie nun den Wert von APACHE_TIMEOUT heraufsetzen. kommt es zu keinen Konflikten.26. Fügen Sie der Modulliste „ssl“ hinzu. die bereits an anderer Stelle hinreichend dokumentiert sind. Das Verzeichnis der virtuellen Hostkonfiguration enthält die Vorlage /etc/apache2/ vhosts. Ein Neuladen des Servers reicht dazu nicht aus. Sie können dazu YaST verwenden (siehe „Konfiguration mit YaST“ (S.

26.1 Stets aktuelle Software Bei Bekanntwerden von Sicherheitsrisiken in der Apache-Software veröffentlicht SUSE sofort einen entsprechenden Sicherheitshinweis.• ErrorLog • TransferLog WICHTIG: Namensbasierte virtuelle Hosts und SSL Auf einem Server mit nur einer IP-Adresse können nicht mehrere SSL-aktivierte virtuelle Hosts laufen.7. Die Sicherheitsankündigungen von SUSE stehen unter folgenden Adressen zur Verfügung: • Webseite http://www. Im Folgenden einige Tipps zur Verbesserung der Sicherheit. ein separater Port für jede SSL-aktivierte Domäne erforderlich. eine Verbindung mit einer solchen Konfiguration herzustellen. sind kaum zu vermeiden.7 Vermeiden von Sicherheitsproblemen Ein dem öffentlichen Internet ausgesetzter Webserver erfordert ständige Wartungsund Verwaltungsarbeiten. verursacht durch die Software wie auch durch versehentliche Fehlkonfigurationen. Sicherheitsprobleme. 26.com/us/private/support/online _help/mailinglists/ • Mailingliste http://www.com/us/private/support/online _help/mailinglists/ 524 Referenz . dass das Zertifikat nicht mit dem Namen des Servers übereinstimmt.suse. die möglichst frühzeitig ausgeführt werden sollten. Dieser enthält Anleitungen zur Behebung der Risiken. Benutzer. Für die Kommunikation auf Grundlage eines gültigen SSL-Zertifikats ist eine separate IP-Adresse bzw.suse. die versuchen. erhalten bei jedem Besuch der URL eine Warnung mit dem Hinweis.

7. die Sicherheit aller Skripts zu überprüfen. Diese Direktiven sollten Sie nicht überschreiben. sollten nur aus Quellen stammen. Achten Sie dabei darauf. Der HTTP-Server Apache 525 . die vom Server ausgeführt werden.7. den Benutzern die Ausführung ihrer eigenen Skripts zu erlauben.oder Systemkonfigurationsdateien zugreifen können.xml 26. Diese Dateien würden dann von Apache mit wwwrun-Berechtigungen ausgeführt werden. 26.novell. Keine gute Idee ist es. Zusätzlich empfiehlt es sich. Wenn diese Verzeichnisse für alle Benutzer modifizierbar wären.7. Stellen Sie auch bei diesen Verzeichnissen sicher. der Gruppe root zugeordnet sind.4 CGI-Skripts Interaktive Skripts in Perl. dass die Verzeichnisse und die darin enthaltenen Dateien dem Benutzer bzw. 494)). Diese Berechtigungen sollten nicht geändert werden. denen der Serveradministrator vertraut.• RSS-Newsticker http://www.2 DocumentRoot-Berechtigungen In SUSE Linux sind das DocumentRoot-Verzeichnis /srv/www/htdocs (absoluter Pfad) und das CGI-Verzeichnis /srv/www/cgi-bin standardmäßig dem Benutzer bzw. die Apache lesen muss (siehe „Basiskonfiguration eines virtuellen Hosts“ (S.3 Zugriff auf das Dateisystem /etc/apache2/httpd.conf verweigert standardmäßig den Zugriff auf das gesamte Dateisystem. Stattdessen sollten Sie explizit den Zugriff auf die Verzeichnisse aktivieren.com/linux/security/suse _security. PHP. Das DocumentRoot-Verzeichnis und die CGI-Verzeichnisse Ihrer virtuellen Hosts sollten Sie als Unterverzeichnisse im Verzeichnis /srv/www anlegen. 26. Skripts. SSI oder anderen Programmiersprachen können im Prinzip jeden beliebigen Befehl ausführen und stellen damit generell ein Sicherheitsrisiko dar. was wiederum dem Benutzer unbeabsichtigt Zugriff auf die Ressourcen des Dateisystems gewähren würde. der Gruppe root zugeordnet. dass keine unbefugten Personen auf kritische Dateien wie Passwort. könnte jeder Benutzer Dateien darin ablegen.

26. 26. Den Benutzern ist es allerdings nicht erlaubt. 526 Referenz . die Sicherheitseinstellungen zu überschreiben. statt sie global zuzulassen. Durch diese Dateien wäre es den Benutzern möglich. sich die Skriptverwaltung durch eine Einschränkung der Skriptausführung zu vereinfachen.5 Benutzerverzeichnisse Bei der Aktivierung von Benutzerverzeichnissen (mit mod_userdir oder mod_rewrite) sollten Sie unbedingt darauf achten. die Ihnen bei der Fehlersuche behilflich sein können. die Binärdatei /usr/sbin/httpd2 zum Starten oder Beenden des Webservers zu verwenden.7. Es kann daher zu Konflikten zwischen verschiedenen Skripts kommen. rcapache2 gibt sogar Tipps und Hinweise zur Behebung von Konfigurationsfehlern. Vermeiden Sie dies aber und verwenden Sie stattdessen besser das Skript rcapache2. In der Standardkonfiguration von SUSE Linux ist es generell nicht gestattet. müssen Sie die Ursache des Problems herausfinden.8 Fehlerbehebung Wenn sich Apache nicht starten lässt. „Starten und Beenden von Apache“ (S. eine Webseite nicht angezeigt werden kann oder Benutzer keine Verbindung zum Webserver herstellen können. mit mod_userdir Option-Direktiven zu überschreiben (sehen Sie sich hierzu die Konfigurationsdatei /etc/apache2/mod_userdir. Dabei wird die Ausführung von CGI-Skripts auf bestimmte Verzeichnisse eingeschränkt. Abhilfe schafft hier das Modul suEXEC. keine . Im Folgenden werden einige nützliche Ressourcen vorgestellt. In SUSE Linux sind . CGI-Skripts von jedem beliebigen Ort aus auszuführen. das die Ausführung von CGI-Skripts unter einem anderen Benutzer oder einer anderen Gruppe ermöglicht. 503)) genannt.3.conf an).htaccess-Dateien zuzulassen.htaccess-Dateien standardmäßig aktiviert.Es ist durchaus üblich. An erster Stelle sei hier das Skript rcapache2 (siehe Abschnitt 26. Zumindest sollten Sie die Möglichkeiten des Benutzers durch die Direktive AllowOverRide einschränken. Die Direktiven ScriptAlias und Option ExecCGI werden zur Konfiguration verwendet. Alle CGI-Skripts werden unter dem gleichen Benutzer ausgeführt. das sich sehr ausführlich mit Fehlern und deren Ursachen befasst und bei Problemen mit Apache wirklich hilfreich ist. Manchmal ist es eine Versuchung.

org/userslist. SUSE-spezifische Konfigurationstipps finden Sie im Verzeichnis /usr/ share/doc/packages/apache2/README. Sie können sich auch an die Apache-Benutzercommunity wenden. die online unter http:// httpd.unix. „Konfigurieren von Apache mit YaST“ (S. finden Sie weitere Informationen in der Apache-Fehlerdatenbank. nützlich.apache. Sowohl bei geringfügigen als auch bei schwerwiegenden Fehlern sind die Protokolldateien von Apache. wenn Sie mehr Details benötigen. um nach Fehlerursachen zu fahnden. 26.9 Weitere Informationen Das Paket apache2-doc. der beste Ort. Dies ist z.html erreichen. enthält das vollständige Apache-Handbuch für die lokale Installation und Referenz. YaST bietet bei der Konfiguration von Apache eine eigene Option.infosystems. Am schnellsten installieren Sie es mit dem Befehl yast -i apache2-doc. die Ports für Apache in der Firewall-Konfiguration des Servers zu öffnen. B. Versuchen Sie anschließend eine Verbindung mit einem Browser herzustellen und überprüfen Sie dort die Ausgabe. 496)). die sich dieses speziellen Themas annimmt (siehe Abschnitt 26.2/ können Sie auch im Web darauf zugreifen. Falls sich Ihr Problem nicht mithilfe der vorgenannten Ressourcen beheben lässt. in erster Linie das Fehlerprotokoll.2. Bei der manuellen Konfiguration von Apache können Sie die Ports für HTTP und HTTPS in der Firewall über das Firewall-Modul von YaST öffnen. Häufig wird vergessen.An zweiter Stelle möchten wir auf die Bedeutung von Protokolldateien hinweisen. Standardmäßig befindet sich das Fehlerprotokoll in /var/log/ apache2/error_log.apache.www. Der HTTP-Server Apache 527 . Nach der Installation steht das ApacheHandbuch unter http://localhost/manual/ zur Verfügung. Das Handbuch ist nicht in der Standardinstallation enthalten.*. Führen Sie danach den Befehl rcapache2 restart aus. das an verschiedenen Orten bereitgestellt wird.2. Unter http://httpd.apache.servers. TIPP: Ein einfacher Test Die Apache-Protokollmeldungen können Sie mit dem Befehl tail -F /var/log/apache2/my_error_log überwachen. Des Weiteren empfehlen wir die Newsgroup comp.org/docs-2. die Sie via Mailingliste unter http://httpd. Mit der Direktive LogLevel können Sie im Übrigen die Ausführlichkeit der protokollierten Meldungen einstellen.org/bug_report.html zur Verfügung steht.

511) beschriebenen. „Externe Module“ (S.apache.modpython.html.org/ mod_php5 http://www.2/new_features_2_2.9.org/ docs-2.2 erhalten Sie unter http://httpd.fastcgi.org/dev/ Dokumentation für Apache-Entwickler http://httpd.unix.apache.2 finden Sie unter http://httpd .org/ mod_ruby http://www.modruby.2/upgrading.9. Upgrade-Informationen von Version 2.1 Apache 2.org/docs/2.apache.net/ 26.apache.3 Entwicklung Weitere Informationen zur Entwicklung von Apache-Modulen sowie zur Teilnahme am Apache-Webserver-Projekt finden Sie unter folgenden Adressen: Informationen für Apache-Entwickler http://httpd.5. 26.com/ mod_perl http://perl.2/developer/ 528 Referenz .php.2 Apache-Module Weitere Informationen über die in Abschnitt 26.html.9. externen Apache-Module finden Sie unter folgenden Adressen: FastCGI http://www.2 Eine Liste der neuen Funktionen in Apache 2.org/docs/2.4.0 auf Version 2.26.apache.php mod_python http://www.net/manual/en/install.apache2.

com/ 26.org/ABOUT_APACHE.suse.9.html.Entwickeln von Apache-Modulen mit Perl und C http://www. weshalb dieser Server Apache genannt wird. Die Entstehungsgeschichte von Apache finden Sie unter http://httpd .4 Verschiedene Informationsquellen Wenn Sie in SUSE Linux Probleme mit Apache haben.html.apache. Der HTTP-Server Apache 529 .com/sdb/en/index . Auf dieser Seite erfahren Sie auch.modperl. werfen Sie einen Blick auf die SUSE-Supportdatenbank unter http://portal.

.

Wenn Dateien bearbeitet werden.Dateisynchronisierung Viele Menschen benutzen heutzutage mehrere Computer: einen Computer zu Hause. und speichern die Dateien auf einem Server. Wer mit einem Laptop unterwegs ist. Viele Dateien werden auf allen diesen Computern benötigt. wenn die Netzverbindung schlecht oder teilweise gar nicht vorhanden ist. Alle Rechner greifen dabei über das Netzwerk auf ein und dieselben Daten zu. zu vermeiden. Wenn Sie eine Datei auf einem Computer ändern. Dies kann bei gelegentlichen Kopiervorgängen manuell mithilfe von scp oder rsync erledigt werden. von allen benötigten Dateien Kopien auf der lokalen Festplatte zu haben.1 Verfügbare Software zur Datensynchronisierung Auf Computern. dass die Kopie der Datei auf allen anderen Computern aktualisiert wird. stellt sich aber schnell das Problem der Synchronisierung. sollten alle Daten überall in aktueller Version zur Verfügung stehen. um Fehler. einen oder mehrere Computer am Arbeitsplatz und eventuell noch einen Laptop oder PDA für unterwegs. Bei vielen Dateien wird das jedoch schnell aufwändig und erfordert hohe Aufmerksamkeit vom Benutzer. die ständig miteinander über ein schnelles Netzwerk in Verbindung stehen. wie etwa das Überschreiben einer neuen mit einer alten Datei. ist darauf angewiesen. wie zum Beispiel NFS. 27 27. Dieser Ansatz ist unmöglich. Dateisynchronisierung 531 . ist die Datensynchronisierung kein Problem. stellen Sie sicher. In diesem Fall wählen Sie ein Netzwerkdateisystem. Da Sie mit allen Computern arbeiten und die Dateien ändern möchten.

Zur Vermeidung der zeitraubenden und fehlerträchtigen manuellen Arbeit bei der Datensynchronisierung gibt es Programme. Vor dem tatsächlichen Einsatz sollten Sie die Programmdokumentation sorgfältig lesen. Damit eignet es sich auch für die Datensynchronisierung. sondern auch die Änderungen an ihnen speichert. welche Dateien geändert wurden und die Übertragung vom oder zum anderen Host vorschlagen. Die Datenbank bleibt im Kon- 532 Referenz . 27.1. 27. Die folgenden Zusammenfassungen sollen dem Benutzer eine Vorstellung davon liefern. die diese Aufgabe mit verschiedenen Ansätzen automatisieren. CVS führt ein zentrales Repository auf dem Server. Beide Prozeduren müssen vom Benutzer initiiert werden. Lokal erfolgte Änderungen werden an das Repository übermittelt und können von anderen Computern durch ein Update abgerufen werden. das meistens zur Versionsverwaltung von Quelltexten von Programmen benutzt wird. Kopien der Dateien auf mehreren Computern zu führen. Die Dateien werden einfach lokal gespeichert und bearbeitet. das nicht nur die Dateien. Zeitstempel und Berechtigungen der ausgewählten Dateien gespeichert sind. bietet die Möglichkeit.1. gibt es einen Konflikt. Beim nächsten Aufruf kann Unison erkennen. Für wichtige Dateien ist das Anlegen einer Sicherungskopie unerlässlich. um Dateien zu synchronisieren. wenn in gleichen Zeilen Änderungen stattfanden. Dabei ist CVS bei gleichzeitigen Änderungen einer Datei auf mehreren Computern sehr fehlertolerant.2 CVS CVS.WARNUNG: Risiko des Datenverlusts Bevor Sie Ihre Daten mit einem Synchronisierungssystem verwalten.1 Unison Unison ist kein Netzwerkdateisystem. Die Änderungen werden zusammengeführt und nur. Für gewöhnlich können Sie alle Vorschläge annehmen. wie diese Programme funktionieren und genutzt werden können. Das Programm Unison kann manuell aufgerufen werden. sollten Sie mit dem verwendeten Programm vertraut sein und dessen Funktionalität testen. in der Prüfsummen. Bei der ersten Synchronisierung wird auf den beteiligten beiden Hosts eine Datenbank angelegt.

die auf einem IMAP-Server untergebracht sind.1. Subversion wurde weitgehend auf der Grundlage von existierenden Programmpaketen zusammengestellt. ob sie synchronisiert bzw. Subversion wurde als technisch verbesserter Nachfolger von CVS entwickelt.1. Im Gegensatz zu CVS bietet Subversion transparenten Netzwerkzugriff über einige Protokolle. gelöscht werden muss.4 mailsync Im Unterschied zu den bisher erwähnten Synchronisierungswerkzeugen dient mailsync einzig und allein der Synchronisierung von E-Mails zwischen verschiedenen Mailboxen. In Subversion dagegen besitzen auch Verzeichnisse eine Versionshistorie und können wie Dateien kopiert und umbenannt werden. Dateisynchronisierung 533 . 27. Synchronisierung ist sowohl zwischen einzelnen Mailboxen als auch zwischen Hierarchien von Mailboxen möglich. Der Konflikt ist nur am Client-Host sichtbar und muss dort gelöst werden.fliktfall in einem konsistenten Zustand. Es kann sich sowohl um lokale Mailbox-Dateien als auch um Mailboxen handeln. das sich im Laufe der Zeit „entwickelt“ hat. ist Subversion ein durchgängig konzipiertes Projekt. Subversion wurde gegenüber seinem Vorgänger in vielen Bereichen deutlich verbessert. Daher wird zum Einsatz von Subversion immer auch der Webserver Apache mit der Erweiterung WebDAV verwendet.3 Subversion Im Gegensatz zu CVS. wie zum Beispiel WebDAV (Web-based Distributed Authoring and Versioning). WebDAV erweitert das HTTPProtokoll für verteiltes Arbeiten an Dateien auf entfernten Webservern. Dabei wird für jede Nachricht aufgrund der im E-Mail-Header enthaltenen MessageID einzeln entschieden. CVS verwaltet aufgrund seiner Geschichte nur Dateien und „weiß“ nichts von Verzeichnissen. Diese Metadaten können ebenfalls der Versionsverwaltung unterliegen. 27. Des Weiteren können jeder Datei und jedem Verzeichnis Metadaten hinzugefügt werden.

Für den Einsatz von rsync sollten die Computer. Wenn Sie Ihre Dateien in Ihrem iFolder-Verzeichnis ablegen. wird dieses sofort auf dem Server synchronisiert. Das ist praktisch. großzügig dimensioniert sein. Das Arbeiten mit iFolder umfasst die folgenden Schritte: 1. wenn Sie z. Ändern Sie Ihre Einstellungen für die gewünschte Häufigkeit der Synchronisierung. die bei der Synchronisierung auftreten.27.6 Novell iFolder Mit Novell iFolder können Sie jederzeit von überall auf Ihre Dateien zugreifen. bevor Sie mit iFolder arbeiten.5 rsync Wenn Sie keine Versionskontrolle benötigen. aber große Dateistrukturen über langsame Netzwerkverbindungen synchronisieren möchten. 534 Referenz . B. Dies betrifft nicht nur Textdateien sondern auch binäre Dateien. iFolder speichert Konfliktdateien in einem separaten Verzeichnis. 2. offline zu arbeiten. 4. RAM ist besonders wichtig.1. Um die Unterschiede zwischen Dateien zu erkennen. teilt rsync die Dateien in Blöcke auf und berechnet Prüfsummen zu diesen Blöcken.1. wenn Sie dieselbe Datei auf zwei verschiedenen Computern ändern. Novell iFolder erlaubt Ihnen auch. bietet das Tool rsync ausgefeilte Mechanismen an. Synchronisieren Sie Ihre Dateien und beobachten Sie die Aktivität zwischen Ihrem Client und dem iFolder-Server. Nach einer erfolgreichen Verbindung mit dem Internet werden die Änderungen an Ihrer Arbeit an den Server übertragen. 27. 3. Lösen Sie alle etwaigen Konflikte. Konflikte treten auf. die synchronisiert werden sollen. Mit dieser Methode können Sie überall arbeiten. Melden Sie sich an. um Datenverlust zu vermeiden. um ausschließlich Änderungen an Dateien zu übertragen. Der Aufwand beim Erkennen der Änderungen hat seinen Preis. bei der Arbeit an einem Notebook unterwegs keine Internet-Verbindung haben.

Die andere Möglichkeit ist.Weitere Informationen über iFolder erhalten Sie unter http://www.novell. 27. CVS. Dieses Modell wird von Subversion. Dateisynchronisierung 535 . Andererseits können sich durch zu lange Synchronisierungsintervalle die Chancen für Konflikte erhöhen. CVS und Unison sind auch für viele andere Betriebssysteme. Der Server muss zumindest zeitweise von allen Clients erreichbar sein. Dies erlaubt die genaue Kontrolle über die abzugleichenden Dateien und einen einfachen Umgang mit Konflikten. 27. Diesen Ansatz verfolgt Unison. jedoch kann jeder Client auch als Server fungieren.3 Interaktiv oder automatisch In Subversion. dass alle Hosts gleichberechtigt (als Peers) vernetzt sind und ihre Daten gegenseitig abgleichen. Im ersten Modell gleichen alle Clients ihre Dateien mit einem zentralen Server ab.com/coolsolutions/ifmag/. WebDAV und Unison startet der Benutzer die Datensynchronisierung manuell.2 Kriterien für die Auswahl eines Programms Bei der Entscheidung für ein Programm müssen einige wichtige Kriterien berücksichtigt werden. Tipps und Tricks zu iFolder siehe unter http://www . 27.2 Portabilität Subversion.2.com/ en-en/documentation/. erhältlich.2.1 Client-Server oder Peer-to-Peer Zur Verteilung von Daten sind zwei verschiedene Modelle verbreitet.novell.2. rsync arbeitet eigentlich im Client-Modus. wie verschiedene Unix. CVS und WebDAV verwendet.und Windows-Systeme. 27.

wie RCS. In der Regel lassen sich Konflikte in Subversion oder CVS einfach lösen. Während in Subversion oder CVS im Konfliktfall Änderungen auch teilweise übernommen werden können. selbst wenn mehrere Leute an einem umfangreichen Programmprojekt arbeiten.2.4 Konflikte: Auftreten und Lösung Konflikte treten bei Subversion oder CVS nur selten auf. Bei Subversion oder CVS müssen neue Verzeichnisse und Dateien explizit über den Befehl svn add bzw. Das liegt daran. Wenn ein Konflikt auftritt. cvs add hinzugefügt werden.27. wird bei WebDAV ein Checkin nur dann vollzogen. Jedoch lassen sich Änderungen nicht so einfach zusammenführen wie bei Subversion oder CVS. Andererseits werden neue Dateien häufig übersehen. dass die Dokumente zeilenweise zusammengeführt werden. dass er nicht versehentlich Dateien überschreibt. Unison meldet Konflikte und Sie können dann die betroffenen Dateien einfach von der Synchronisierung ausschließen. Zur Sicherheit können Sie zusätzlich ein Versionierungssystem.2. vor allem. wenn aufgrund einer großen Anzahl von Dateien die Fragezeichen in der Ausgabe von svn update und svn status oder cvs update ignoriert werden.5 Auswählen und Hinzufügen von Dateien In seiner Standardkonfiguration synchronisiert Unison eine ganze Verzeichnisstruktur. wenn die gesamte Änderung erfolgreich ist. 27. Daraus resultiert eine genauere Kontrolle über die zu synchronisierenden Dateien. verwenden. Neue Dateien in der Struktur werden automatisch in die Synchronisierung einbezogen. ist davon immer nur ein Client betroffen. und alle etwaigen Konflikte manuell lösen. Der Benutzer muss selbst darauf achten. 536 Referenz . In rsync gibt es keine Konfliktbehandlung.

emacs) unterstützen CVS oder Subversion. Bei jeder Änderung kann ein kurzer Bearbeitungsvermerk hinzugefügt werden. 27. B. Im Textmodus bestätigen Sie die einzelnen Vorgänge interaktiv. cervisia) und für andere Betriebssysteme (z. 27. Nehmen Sie den Vorschlag an oder schließen Sie einzelne Dateien aus der Synchronisierung aus. 27. Änderungen der Daten sollten zunächst immer lokal mit dem Repository zusammenge- Dateisynchronisierung 537 .8 GUI Unison bietet eine grafische Benutzeroberfläche (GUI). B. Bei Dateien im Textformat müssen nur geänderte Zeilen neu gespeichert werden. Damit lässt sich später die Entwicklung der Dateien aufgrund des Inhalts und der Vermerke gut nachvollziehen. kdevelop) und Texteditoren (z. Erfahrene Benutzer führen Subversion bzw.2. wincvs). Bei Subversion bzw. CVS fällt zusätzlich der Platzbedarf für die Repository-Datenbank auf dem Server an. Benutzer sollten zu deren Verwendung das Zusammenspiel zwischen Repository und lokalen Daten verstehen.6 Chronik Subversion und CVS bieten eine Rekonstruktion alter Dateiversionen als zusätzliche Funktion. Es gibt jedoch grafische Benutzeroberflächen für Linux (z. Die Behebung von Konflikten wird mit diesen Frontends oft sehr vereinfacht. Viele Entwicklungswerkzeuge (z.9 Benutzerfreundlichkeit Unison und rsync sind ziemlich einfach zu benutzen und bieten sich auch für Anfänger an. welche Synchronisierungsvorgänge Unison ausführen möchte. B. Für Diplomarbeiten und Programmtexte ist dies eine wertvolle Hilfe. ist dort deutlich mehr Speicherplatz nötig. die anzeigt. B.2. CVS und Subversion sind etwas schwieriger zu bedienen. Bei binären Dateien wächst hingegen der Platzbedarf bei jeder Änderung um die Größe der Datei.2. Da auf dem Server auch die Dateihistorie gespeichert wird. CVS gewöhnlich über die Befehlszeile aus.2.27.7 Datenmenge und Speicherbedarf Auf jedem der beteiligten Computer ist für alle verteilten Daten genügend Speicherplatz auf der Festplatte erforderlich.

+ = gut. CVS oder Unison über rsh (Remote Shell) einzusetzen.Win rsync C-S Lin.11 Schutz vor Datenverlust CVS wird schon sehr lange von vielen Entwicklern zur Verwaltung ihrer Programmprojekte benutzt und ist äußerst stabil. Unison ist noch relativ neu.Un*x. Dies erfolgt gewöhnlich mit dem Befehl cvs update bzw. o = mittelmäßig.2.= sehr schlecht. wird es bereits im produktiven Einsatz verwendet (z.führt werden.2. ist die Datei nicht mehr zu retten.= schlecht bzw. svn update.Un*x. Subversion stellt bereits durch die Verwendung von Apache die benötigten Sicherheitsmechanismen zur Verfügung.Un*x 538 Referenz . Durch das Speichern der Entwicklungsgeschichte bietet CVS sogar Schutz vor bestimmten Benutzerfehlern. Subversion auch für Anfänger leicht zu benutzen. Unison. ++ = ausgezeichnet.10 Sicherheit vor Angriffen Idealerweise sollten die Daten bei der Übertragung vor Abhören oder Änderungen geschützt sein.1 Funktionen der Werkzeuge zur Datensynchronisierung: -. nicht verfügbar. Wenn die Synchronisierung eines Löschvorgangs bei einer Datei einmal bestätigt wurde. B. Zugriffe auf CVS mit dem Mechanismus pserver sind in ungeschützten Netzwerken ebenfalls nicht empfehlenswert. Anschließend müssen die Daten über den Befehl cvs commit bzw.Win CVS/SVN C-S/C-S Lin. Wenn dieser Vorgang verstanden wurde. Tabelle 27. x = verfügbar Unison Client/Server Portabilität gleich Lin. ist CVS bzw. 27. wie irrtümliches Löschen einer Datei. svn commit wieder in das Repository zurückgeschickt werden. vom Subversion-Projekt selbst). Es ist jedoch empfindlicher gegen Benutzerfehler. rsync und Subversion lassen sich einfach über SSH (Secure Shell) benutzen und sind dann gut gegen derartige Angriffe gesichert. Es sollte vermieden werden. weist aber eine hohe Stabilität auf.Un*x. . CVS. 27.Win mailsync gleich Lin. Obwohl Subversion im Vergleich zu CVS noch nicht sehr weit verbreitet ist.

/Datei.Unison Interaktivität Geschwindigkeit Konflikte Dateiauswahl x o Verz. damit keine Interaktion mit dem Benutzer anfällt. x/x -o/o o/o +/+(ssh) ++/++ rsync x + o Verz.1 Anforderungen Unison muss sowohl auf dem Client als auch auf dem Server installiert sein. 532)). Hier ist mit Server ein zweiter. Die Synchronisierung erfolgt in beide Richtungen und lässt sich intuitiv über eine grafische Oberfläche steuern. Dazu ist jedoch einige Erfahrung nötig. „CVS“ (S.2. Die Synchronisierung lässt sich auch automatisieren. Verz.3.1. CVS/SVN x/x o/+ ++/++ Ausw. mailsync + + Mailbox Chronik Speicherbedarf GUI Schwierigkeit Angriffe Datenverlust o + + +(ssh) + o + +(ssh) + + o +(SSL) + 27. Eine Konsolenversion kann ebenfalls verwendet werden. Dateisynchronisierung 539 . siehe Abschnitt 27.3 Einführung in Unison Unison eignet sich hervorragend für Synchronisierung und Transfer ganzer Verzeichnisstrukturen. 27. entfernter Host gemeint (im Unterschied zu CVS.

Im folgenden Abschnitt wird Unison zusammen mit ssh verwendet. neu sind. Als Erstes soll getestet werden.3. Bei der ersten Synchronisierung kennt Unison die Beziehung zwischen den beiden Verzeichnissen noch nicht und macht von daher Vorschläge für die Übertragungsrichtung der einzelnen Dateien und Verzeichnisse. • Der Server lässt keine SSH-Verbindung zu. Diese Bindung ist symbolisch . die hierbei auftreten können: • Die auf dem Client und Server eingesetzten Versionen von Unison sind nicht kompatibel. zwei Verzeichnisse (so genannte roots) aneinander zu binden. dass Unison keinen Vorschlag zur Übertragungsrichtung machen kann. Wenn alles funktioniert. Mit den Pfeiltasten können Sie die Übertragungsrichtung für jeden Eintrag einstellen.2 Verwendung von Unison Das Grundprinzip bei Unison ist. Die Pfeile in der Spalte Action geben die Übertragungsrichtung an. da beide Versionen in der Zwischenzeit geändert wurden bzw. Ein Fragezeichen bedeutet. dann klicken Sie einfach auf Go. lassen Sie die Option -testserver weg. Auf dem Client ist der Benutzer als tux bekannt. auf dem Server dagegen als geeko. 27. In diesem Beispiel ist das Verzeichnis-Layout wie folgt: Client: Server: /home/tux/dir1 /home/geeko/dir2 Diese beiden Verzeichnisse sollen synchronisiert werden. In diesem Fall muss ein SSH-Client auf dem Client und ein SSH-Server auf dem Server installiert sein. Stimmen die Übertragungsrichtungen für alle angezeigten Einträge.es handelt sich nicht um eine Online-Verbindung. 540 Referenz . ob die Kommunikation zwischen Client und Server funktioniert: unison -testserver /home/tux/dir1 ssh://geeko@server//homes/geeko/dir2 Die häufigsten Probleme. • Keiner der angegebenen beiden Pfade existiert.

wie ASCII-Text oder Programmquelltext. geben Sie diese Datei als Befehlszeilenparameter an..1 Die Datei ~/. 27.unison/example. Um die Synchronisierung zu starten.prefs root=/home/tux/dir1 root=ssh://wilber@server//homes/wilber/dir2 batch=true Für jede Bindung wird im Benutzerverzeichnis ~/. wie in unison example. Das vollständige Handbuch steht unter http://www. wie z.3 Weitere Informationen Die offizielle Dokumentation zu Unison ist äußerst nützlich. Konfigurationssets.upenn.edu/~bcpierce/unison/ und mit dem SUSE-Paket unison zur Verfügung. wie ~/.unison/example. Beispiel 27. Daher gibt dieser Abschnitt nur eine kurze Einführung. Zudem bleiben in solchen Fällen die meisten Möglichkeiten von CVS ungenutzt.3. da jede Variante einer Datei dauerhaft auf dem CVS-Server gespeichert wird. ist zwar möglich. wenn alle Arbeitsstationen auf denselben Server zugreifen können. wenn einzelne Dateien häufig bearbeitet werden und in einem Dateiformat vorliegen. Die Verwendung von CVS für die Synchronisierung von Daten in anderen Formaten.prefs. führt aber schnell zu großen Datenmengen. JPEG-Dateien. B.4 Einführung in CVS CVS bietet sich zur Synchronisierung an. Die Verwendung von CVS zur Dateisynchronisierung ist nur möglich.prefs. Eine komplette Liste aller Parameter liefert unison --help. können ebenfalls in diesem Verzeichnis gespeichert werden.unison ein Synchronisierungsprotokoll geführt.cis . Dateisynchronisierung 541 . B.Das Verhalten von Unison (z. ob in eindeutigen Fällen die Synchronisierung automatisch durchgeführt werden soll) lässt sich beim Programmstart mithilfe von Befehlszeilenparametern steuern. 27.

geben Sie Folgendes ein: cvs import synchome tux wilber Viele Befehle von CVS erfordern einen Kommentar. Zu diesem Zweck startet CVS einen Editor (den in der Umgebungsvariable $EDITOR definierten.4. Um Ihre Änderungen an den Server zu übermitteln. 542 Referenz . an dem sich alle gültigen Dateien befinden. Der Name des Verzeichnisses ist auch der Name der Synchronisierung. einschließlich der neuesten Version jeder Datei. Dadurch wird auf dem Client das neue Unterverzeichnis synchome angelegt. Abschließend muss ein Name für die Synchronisierung festgelegt werden. dass die Daten des CVS-Repository in regelmäßige Backups einbezogen werden. wechseln Sie in das Verzeichnis synchome (oder eines seiner Unterverzeichnisse) und geben Sie cvs commit ein. Um den Synchronisationsnamen auf synchome zu setzen.1 Konfigurieren eines CVS-Servers Der Server ist der Ort. Benutzern über SSH Zugang zum Server zu gestatten. wie in folgendem Beispiel: cvs import -m 'Das ist ein Test' synchome tux wilber 27.2 Verwenden von CVS Das Synchronisierungsrepository kann jetzt mit cvs co synchome von allen Hosts gespeichert ("ausgecheckt") werden. Den Aufruf des Editors können Sie umgehen.27. Ist auf diesem Server der Benutzer als tux bekannt und sowohl auf dem Server als auch auf dem Client die CVS-Software installiert.4. Jede stationäre Arbeitsstation kann als Server benutzt werden. Wünschenswert ist. Wählen oder erzeugen Sie auf dem Client ein Verzeichnis. Beim Konigurieren eines CVS-Servers ist es sinnvoll. die von CVS verwaltet werden sollen (es darf auch leer sein). das ausschließlich Dateien enthält. indem Sie den Kommentar bereits in der Befehlszeile eingeben. ansonsten vi). Wechseln Sie in dieses Verzeichnis. müssen auf der Client-Seite die folgenden Umgebungsvariablen gesetzt sein: CVS_RSH=ssh CVS_ROOT=tux@server:/serverdir Mit dem Befehl cvs init lässt sich der CVS-Server von der Client-Seite aus initialisieren. In diesem Beispiel wird das Verzeichnis synchome genannt. Das ist nur einmal erforderlich.

Um nur einzelne Dateien oder Verzeichnisse zu übermitteln. Falls Änderungen am Server erfolgt sind. Starten Sie die Synchronisierung mit dem Server über cvs update. Entweder übermitteln Sie die lokale Kopie an den Server oder Sie entfernen die lokale Datei und führen die Aktualisierung erneut durch. geben Sie diese folgendermaßen an: cvs commit datei1 verzeichnis1. die Unterschiede mit der lokalen Kopie zusammenzuführen. M Die lokale Version wurde geändert. um zu sehen. Aktualisieren Sie einzelne Dateien oder Verzeichnisse. Dateisynchronisierung 543 .Standardmäßig werden alle Dateien (einschließlich Unterverzeichnisse) an den Server übermittelt. Wenn Sie zu einer anderen Arbeitsstation wechseln. falls dies nicht in einer früheren Sitzung an derselben Arbeitsstation erfolgt ist (siehe oben). Hier sind einige der Statussymbole. P Die lokale Version wurde durch einen Patch der Server-Version aktualisiert. Verwenden Sie cvs -nq update. ? Die Datei existiert nicht in CVS. die vom Server bereitgestellt werden und auf dem lokalen System fehlen. wie in cvs update datei1 verzeichnis1. wie cvs add datei1 verzeichnis1. Neue Dateien und Verzeichnisse müssen dem Repository mit einem Befehl. bevor sie an den Server übermittelt werden. die während einer Aktualisierung angezeigt werden: U Die lokale Version wurde aktualisiert. speichern Sie das Synchronisierungsrepository. hinzugefügt werden. C Die lokale Datei hat einen Konflikt mit der aktuellen Version im Repository. Den Unterschied zwischen den aktuellen Dateien und den auf dem Server gespeicherten Versionen sehen Sie mithilfe des Befehls cvs diff oder cvs diff datei1 verzeichnis1. war es möglich. In diesem Fall wird die fehlende Datei vom Server abgerufen. Dies betrifft alle Dateien. welche Dateien von einer Aktualisierung betroffen sind. Übermitteln Sie anschließend die neu hinzugefügten Dateien und Verzeichnisse mit cvs commit datei1 verzeichnis1. Der Status M kennzeichnet eine lokal geänderte Datei.

3 Weitere Informationen Dieser Abschnitt gibt nur eine kurze Einführung in die vielen Möglichkeiten von CVS.gnu. könnten Sie sich entscheiden. welches das Dateisystem direkt verwendet) verwendet. Geben Sie zum Anlegen eines neuen Repositorys den folgenden Befehl ein: svnadmin create /path/to/repository Weitere Optionen erhalten Sie mit svnadmin help.4. wenn Sie die Vorteile von CVS genießen möchten.Wenn von verschiedenen Benutzern die gleiche Datei in derselben Zeile editiert und dann übermittelt wurde.cvshome. die lokale Datei zu löschen und dann mit der Eingabe cvs up die aktuelle Version vom Server abzurufen. Für gewöhnlich wird die Berkeley-Datenbank oder FSFS (ein Repository. ohne dessen Nachteile in Kauf nehmen zu müssen.1. der mit C gekennzeichnet wird. „Subversion“ (S. 533) erwähnt. Im Unterschied zu CVS verwendet Subversion nicht RCS als Basis. h. Viele dieser Eigenschaften wurden bereits ansatzweise in Abschnitt 27. 27.3. Subversion bietet dafür ein einfaches Administrationswerkzeug. Beachten Sie in diesem Fall die Konfliktmarkierungen (»> und «<) in der Datei und entscheiden Sie sich für eine der beiden Versionen. Da dies eine ziemlich unangenehme Aufgabe sein kann.5. Es bietet sich vor allem an.org/manual/ 27. sondern andere Arten von Repository.5 Einführung in Subversion Subversion ist ein freies Open Source-System zur Versionskontrolle und wird häufig als Nachfolger von CVS betrachtet. Ausführliche Dokumentation steht unter den folgenden URLs zur Verfügung: http://www. Legen Sie ein Repository nicht auf entfernten Dateisyste- 544 Referenz . d.1 Installieren eines Subversion-Servers Die Installation einer Repository-Datenbank auf einem Server ist eine relativ einfache Prozedur. bereits vorgestellte Eigenschaften von CVS treffen auch zum großen Teil auf Subversion zu. entsteht ein Konflikt. Ihre Änderungen zu verwerfen.org/ http://www. 27.

example. Benutzer.3. Die Datenbank benötigt POSIX-Sperrmechanismen. können in /etc/svnserve. wobei der Name des Unterverzeichnisses dem Basisnamen der URL entspricht. um verschiedenen Benutzern den Zugriff auf das Repository zu erlauben. AFS oder Windows SMB. wie NFS. wird jede in einem Unterverzeichnis von PATH gespeichert. Syntax: checkout URL[@REV]. svnlook info /path/to/repository Ein Server muss konfiguriert werden. 27.. kann jeder Client mit einem der folgenden Befehle zugreifen: svn list http://svn. den ein korrekt konfigurierter Server mit einem entsprechenden Repository liefert. in welcher Revision die URL zuerst nachgeschlagen wird. die sich beim Aufruf von svn authentifizieren sollten.2 Benutzung und Betrieb Verwenden Sie den Befehl svn (ähnlich wie cvs) für den Zugriff auf ein SubversionRepository. an.men. Sobald svnserve eingerichtet ist und läuft.5. wird der URL-Basisname als Ziel verwendet. Sind mehrere URLs angegeben. „Weitere Informationen“ (S. Sie sollten das Subversion-Handbuch studieren. Die Entscheidung für Apache oder svnserve hängt von vielen Faktoren ab. Wenn PATH weggelassen wird.conf eingerichtet werden.example. die diese Dateisysteme nicht unterstützen. [PATH] Sofern angegeben.. der Server. . kann über eine URL mit svn:// oder svn+ssh:// auf das Repository zugegriffen werden. bestimmt REV. der mit Subversion geliefert wird. 547).com/path/to/project Oder: svn list svn://svn. Weitere Informationen dazu finden Sie in Abschnitt 27. Mit svn help erhalten Sie die Beschreibung von Befehlsparametern: checkout (co): Speichern einer Arbeitskopie aus einem Repository auf dem Client. Der Befehl svnlook bietet Informationen über ein bestehendes Repository. Auf den Inhalt.com/path/to/project Dateisynchronisierung 545 .5... Verwenden Sie dafür entweder den Apache-Webserver mit WebDAV oder svnserve.

Lokale Änderungen werden in fünf Spalten angezeigt.txt': license : GPL Speichern Sie die Änderungen mit svn commit auf dem Server. Die erste Spalte ist dabei die wichtigste: '' Keine Änderungen.txt Das vorangehende Beispiel setzt den Wert GPL für die Eigenschaft license.txt Properties on 'foo. 546 Referenz . Subversion kann zusätzlich Eigenschaften einer Datei oder eines Verzeichnisses aufzeichnen: svn propset license GPL foo. Löschen) daran ausgeführt werden: svn svn svn svn add file copy oldfile newfile move oldfile newfile delete file Diese Befehle können auch auf Verzeichnisse angewendet werden. Kopieren. indem er mithilfe von svn update eine Synchronisierung mit dem Server ausführt. Umbenennen. Im Unterschied zu CVS kann der Status eines Arbeitsverzeichnisses in Subversion ohne Zugriff auf das Repository über den Befehl svn status angezeigt werden.Speichern Sie ein bestehendes Projekt im aktuellen Verzeichnis mit dem Befehl svn checkout: svn checkout http://svn. Zeigen Sie Eigenschaften an mit svn proplist: svn proplist --verbose foo. 'M' Objekt wurde geändert. Anschließend können Operationen (Hinzufügen.example. 'D' Objekt ist zum Löschen markiert. 'A' Objekt ist zum Hinzufügen markiert. Ein anderer Benutzer kann Ihre Änderungen in sein Arbeitsverzeichnis übernehmen.com/path/to/project nameofproject Dadurch wird auf dem Client das neue Unterverzeichnis nameofproject angelegt.

'~' Objekt wurde als Datei verwaltet. Die zweite Spalte zeigt den Status der Eigenschaften. Diese Markierung erscheint.html verfügbar.html. wurde jedoch mittlerweile durch ein Verzeichnis ersetzt.6 Einführung in rsync rsync bietet sich immer dann an. Ein sehr empfehlenswertes.com/svnbook/index. wenn große Datenmengen. B.tigris . wenn das Objekt ohne den Befehl svn gelöscht oder verschoben wurde. '!' Objekt wird vermisst. komplett englischsprachiges Buch finden Sie nach der Installation des Pakets subversion-doc im Verzeichnis file:///usr/ share/doc/packages/subversion/html/book. '?' Objekt unterliegt nicht der Versionskontrolle. auf denen komplette Verzeichnisstrukturen von Webservern gespeichert werden.red-bean. Dabei handelt es sich um Server.'C' Objekt ist in einem Konflikt. bei der Erstellung von Sicherungskopien häufig der Fall. 27.5. Es ist auch unter http://svnbook. Dateisynchronisierung 547 . regelmäßig übertragen werden müssen. die regelmäßig auf den eigentlichen Webserver in einer „DMZ“ gespiegelt werden. Ein weiteres Einsatzgebiet sind so genannte StagingServer. Die Bedeutung aller übrigen Spalten kann im Subversion-Handbuch nachgeschlagen werden.org/. 'I' Objekt wurde ignoriert. oder umgekehrt. die sich nicht wesentlich ändern. 27. Dies ist z.3 Weitere Informationen Erste Quelle ist die Homepage von Subversion unter http://subversion.

sollte das Programm im „rsync“Modus betrieben werden. B.conf. Damit rsync seine Funktionen voll ausnutzen kann. auf denen rsyncd nicht allzu oft verwendet wird.1 Konfiguration und Betrieb rsync lässt sich in zwei verschiedenen Modi benutzen. verwenden Sie die folgende Konfiguration: gid = nobody uid = nobody read only = true use chroot = no transfer logging = true log format = %h %o %f %l %b log file = /var/log/rsyncd.log [FTP] path = /srv/ftp comment = An Example Starten Sie dann rsyncd mit rcrsyncd start. Mit rsync ist es direkt möglich.27. komplette Verzeichnisse auf ein anderes System zu spiegeln. wie scp. Dazu wird auf einem der Systeme der Daemon rsyncd gestartet. rsyncd kann auch automatisch beim Bootvorgang gestartet werden. wie z. Die grundlegende Verwendung von rsync erfordert keine besondere Konfiguration. erforderlich. Zum einen kann rsync zum Archivieren oder Kopieren von Daten verwendet werden. Beispielsweise kann mit folgendem Befehl ein Backup des Home-Verzeichnisses von „tux“ auf einem Backupserver „sun“ angelegt werden: rsync -baz -e ssh /home/tux/ tux@sun:backup Mit dem folgenden Befehl wird das Verzeichnis zurückgespielt: rsync -az -e ssh tux@sun:backup /home/tux/ Bis hierher unterscheidet sich die Benutzung kaum von einem normalen Kopierprogramm. Dazu ist auf dem Zielsystem nur eine Remote-Shell. Wenn beispielsweise das Verzeichnis /srv/ftp über rsync zugänglich sein soll. Alternativ kann rsyncd auch von xinetd gestartet werden. SSH. Dies empfiehlt sich aber nur bei Servern. Konfigurieren Sie rsync in der Datei /etc/rsyncd. 548 Referenz . Jedoch kann rsync auch als Daemon verwendet werden und Verzeichnisse im Netz zur Verfügung stellen. Hierzu muss entweder dieser Dienst in YaST im Runlevel-Editor aktiviert oder manuell der Befehl insserv rsyncd eingegeben werden.6.

Im obigen Beispiel wird auch eine Protokolldatei über alle Verbindungen angelegt. Diese Datei wird unter /var/log/rsyncd. kann stattdessen die Option --update angegeben werden. Eine technische Dokumentation zur Vorgehensweise von rsync finden Sie unter /usr/share/doc/packages/rsync/tech_report.6. Dadurch entstehende Konflikte müssen manuell aufgelöst werden. Verwenden Sie .conf.ps. 27. Standardmäßig werden bei der Synchronisierung mit rsync keine Dateien gelöscht. Suche nach Duplikaten Dateisynchronisierung 549 .7 Einführung in mailsync mailsync eignet sich vor allem für die folgenden drei Aufgaben: • Synchronisierung von lokal gespeicherten E-Mails mit E-Mails. Das geschieht mit folgendem Befehl: rsync -avz sun::FTP Dieser Befehl listet alle Dateien auf. muss zusätzlich die Option --delete angegeben werden.log abgelegt. Wenn dies erzwungen werden soll. die auf dem Server im Verzeichnis /srv/ftp liegen. auf einen anderen Server • Integritätsprüfung einer Mailbox bzw. Aktuelles zu rsync finden Sie auf der Projekt-Website unter http://rsync. Um sicherzustellen. Beispiel: rsync -avz sun::FTP . geben Sie ein Zielverzeichnis an. die auf einem Server gespeichert sind • Migration von Mailboxen in ein anderes Format bzw. Diese Anfrage wird auch in der Protokolldatei unter /var/log/rsyncd.samba .2 Weitere Informationen Wichtige Informationen zu rsync finden Sie in den Manualpages man rsync und man rsyncd. Um die Übertragung tatsächlich zu starten.log aufgezeichnet. für das aktuelle Verzeichnis. dass keine neueren Dateien überschrieben werden.org/. Dann kann die Übertragung von einem Clientsystem aus getestet werden. 27.

27. wird ein Index aller Nachrichten in saved-messages aufgelistet.edu. Die folgenden Abschnitte geben einige Beispiele für Stores.harvard.mailsync abgelegt.harvard.harvard.com} pat INBOX. Die Spezifikation eines Store auf einem IMAP-Server sieht wie folgt aus: store imapinbox { server {mail.edu. Der Befehl mailsync localdir listet dagegen die Ordnernamen auf. Ein Store für die Unterordner würde wie folgt aussehen: store imapdir { server {mail.1 Konfiguration und Verwendung mailsync unterscheidet zwischen der Mailbox an sich (einem so genannten Store) und der Verknüpfung zwischen zwei Mailboxen (einem so genannten Channel).com/user=gulliver} ref {mail.com/user=gulliver} ref {mail. die unter Mail/ gespeichert sind. sollte die Server-Spezifikation wie folgt geändert werden: 550 Referenz .edu. das Ordner mit E-Mails enthält.edu. Für die folgende Definition: store localdir { pat Mail/* prefix Mail/ } listet der Befehl mailsync -m localdir alle Nachrichten auf.7. } Unterstützt der IMAP-Server verschlüsselte Verbindungen. Die Definitionen der Stores und Channels sind in der ~/.harvard. unter anderem den Ordner saved-messages.com} pat INBOX } Das obige Beispiel adressiert nur den Hauptordner auf dem IMAP-Server. Eine einfache Definition kann wie folgt aussehen: store saved-messages { pat Mail/saved-messages prefix Mail/ } Mail/ ist ein Unterverzeichnis im Home-Verzeichnis des Benutzers.* prefix INBOX. Wird nun mailsync mit dem Befehl mailsync -m saved-messages gestartet.

angelegt. • Existiert die Nachricht nur auf einer Seite und ist alt (d. welche Nachrichten bereits synchronisiert wurden. Der Befehl mailsync folder bewirkt Folgendes: • Auf beiden Seiten wird das Mailbox-Muster erweitert. wie folgt: server {mail. wird sie dort gelöscht (da sie offenbar auf der anderen Seite existiert hatte und dort gelöscht wurde).com/ssl/user=gulliver} oder. die auf dem lokalen Host neu sind.info } mailsync verfolgt mithilfe der Datei msinfo. starten Sie mailsync mit einem Channel und einem Store gleichzeitig: mailsync folder localdir. falls noch nicht vorhanden). Der Ordner INBOX. • Die Ordner werden paarweise synchronisiert (bzw. wird sie dorthin übertragen. geschieht nichts.com/ssl/novalidate-cert/user=gulliver} Das Präfix wird später erklärt.server {mail.sent-mail auf dem IMAP-Server wird also mit dem lokalen Ordner Mail/sent-mail synchronisiert (obige Definitionen vorausgesetzt). • Von den resultierenden Ordnernamen wird jeweils das Präfix entfernt. falls das Server-Zertifikat nicht bekannt ist. Die Synchronisierung zwischen den einzelnen Ordnern wird wie folgt durchgeführt: • Existiert eine Nachricht schon auf beiden Seiten. bereits in der Datei msinfo protokolliert).harvard. Nun sollen die Ordner unter Mail/ mit den Unterverzeichnissen auf dem IMAP-Server verbunden werden: channel folder localdir imapdir { msinfo . Um im Voraus ein Bild davon zu erhalten.mailsync. • Fehlt die Nachricht auf einer Seite und ist neu (d. welche Nachrichten bei einer Synchronisierung übertragen und welche gelöscht werden. sowie eine Liste Dateisynchronisierung 551 .edu.harvard. Dadurch erhalten Sie eine Liste aller Nachrichten. h.edu. nicht in der Datei msinfo protokolliert). h.

7. Ähnlich erhalten Sie mit mailsync folder imapdir sowohl eine Liste aller Nachrichten. wie z. die bei einer Synchronisierung auf der IMAP-Seite gelöscht werden würden. diese Nachrichten nicht als neu erkennen. Das Fehlen einer Message-ID wird in der Regel durch fehlerhafte Programme beim Senden oder Schreiben einer Nachricht verursacht. sie werden weder übertragen noch gelöscht. d. mutt.3 Weitere Informationen Die im Paket mailsync enthaltene README-Datei unter /usr/share/doc/ packages/mailsync/ bietet weitere Informationen. Dadurch gelten alle Nachrichten. Dadurch ist es bei solchen IMAP-Servern nicht möglich. die bei einer Synchronisierung auf dem lokalen Host gelöscht werden würden. 27. 552 Referenz .7. Von besonderem Interesse ist in diesem Zusammenhang auch RFC 2076 „Common Internet Message Headers“.2 Potenzielle Probleme Im Fall eines Datenverlusts ist es das sicherste Vorgehen.aller Nachrichten. als auch eine Liste aller Nachrichten. Daher können einige E-Mail-Programme. Auf bestimmten IMAP-Servern werden der Hauptordner mit INBOX und Unterordner mit einem beliebigen Namen angesprochen (im Gegensatz zu INBOX und INBOX. als neu und werden bei der nächsten Synchronisierung übertragen. Die von mailsync benutzten Mailbox-Treiber (c-client) setzen nach der erfolgreichen Übertragung der Nachrichten an einen IMAP-Server ein spezielles Status-Flag. Nachrichten ohne Message-ID werden einfach ignoriert. ein Muster ausschließlich für die Unterordner anzugeben. 27. die nur auf jeweils einer Seite existieren. B.name). h. Sie können das Setzen dieses speziellen Status-Flags mithilfe der Option -n verhindern. die zugehörige ChannelProtokolldatei msinfo zu löschen. die auf der IMAP-Seite neu sind. Nur Nachrichten mit einer Message-ID werden in die Synchronisierung einbezogen.

Mit diesem Dienst können die an das Netzwerk angeschlossenen Computer Namen für sich reservieren. das von Samba unterstützt wird. Samba ist mittlerweile ein sehr umfassendes und komplexes Produkt. das auf den NetBIOS-Diensten basiert. 28.Samba 28 Mit Samba kann ein Unix-Computer als Datei. Windowsund OS/2-Computer konfiguriert werden.und Druckserver für DOS-. Nach dieser Reservierung können die Computer anhand ihrer Namen Samba 553 .1 Terminologie SMB-Protokoll Samba verwendet das SMB-Protokoll (Server Message Block). sodass auch andere Softwarehersteller Anbindungen an ein Microsoft-Domänennetzwerk einrichten konnten. Entsprechend muss auf allen Clients das TCP/IP-Protokoll installiert sein. die die Kommunikation zwischen Computern ermöglicht. NetBIOS NetBIOS ist eine Softwareschnittstelle (API). SWAT (eine WebSchnittstelle) oder der Konfigurationsdatei.auf das TCP/IP-Protokoll auf. das Benutzergruppen die netzwerkweite Zusammenarbeit und gemeinsame Dokumentbenutzung ermöglicht. Dabei wird ein Namensdienst bereitgestellt. Konfigurieren Sie Samba mit YaST. CIFS definiert ein Standardprotokoll für den Fernzugriff auf Dateisysteme über das Netzwerk. CIFS-Protokoll Das CIFS-Protokoll (Common Internet File System) ist ein weiteres Protokoll. Samba setzt das SMB. Auf Drängen von IBM gab Microsoft das Protokoll frei.

Freigaben SMB-Server stellen den Clients Plattenplatz in Form von Freigaben (Shares) zur Verfügung. Ebenso wird einem Drucker ein Name zugeordnet. Mit NetBIOS implementierte Netzwerkprotokolle sind IPX (NetBIOS über TCP/IP) von Novell und TCP/IP. wird aber häufig auch als NetBIOS bezeichnet.adressiert werden. Es empfiehlt sich jedoch. Sie brauchen für Samba-Client keinen Daemon auszuführen. vollständig unabhängiger Namensraum. Für Linux gibt es zudem ein Dateisystem-Kernel-Modul für SMB. der SMB/CIFS-Dienste sowie NetBIOS over IPNamensdienste für Clients zur Verfügung stellt. 554 Referenz . Samba-Server Samba-Server ist ein Server. Eine Implementierung. das Samba-Dienste von einem Samba-Server über das SMB-Protokoll nutzt. Windows und OS/2 unterstützt. nennt sich NetBEUI. Für einen Samba-Server ist dies die Voreinstellung. Für die Überprüfung der Namen gibt es keine zentrale Instanz. solange die Namen noch nicht Gebrauch sind. Das Samba-Protokoll wird von allen gängigen Betriebssystemen wie Mac OS X. das die Integration von SMB-Ressourcen auf Linux-Systemebene ermöglicht. Unter diesem Namen können die Clients auf den Drucker zugreifen. für einfachere Administration NetBIOS-Namen zu vergeben. Für Linux gibt es zwei Daemons für Samba-Server: smnd für SMB/CIFS-Dienste und nmbd für Namensdienste. Jeder Computer im Netzwerk kann beliebig viele Namen reservieren. die den jeweiligen DNS-Hostnamen entsprechen. Der Freigabename kann frei vergeben werden. Auf den Computern muss das TCP/IP-Protokoll installiert sein. Eine Freigabe wird unter einem eigenen Namen exportiert und kann von Clients unter diesem Namen angesprochen werden. NetBIOS ist ein eigener. die relativ nah an der Netzwerkhardware arbeitet. Die per TCP/IP übermittelten NetBIOS-Namen haben nichts mit den in der Datei /etc/hosts oder per DNS vergebenen Namen zu tun. Er muss nicht dem Namen des exportierten Verzeichnisses entsprechen. Samba-Client Samba-Client ist ein System. Für die verschiedenen UNIX-Versionen stellt Samba einen Client zur Verfügung. Freigaben sind Drucker und Verzeichnisse mit ihren Unterverzeichnissen auf dem Server. Die NetBIOS-Schnittstelle kann in unterschiedlichen Netzwerkarchitekturen implementiert werden.

3 Konfigurieren eines Samba-Servers Ein Samba-Server in SUSE Linux kann auf zwei Arten konfiguriert werden: mit YaST oder manuell. die in Abschnitt 28. Das Dialogfeld Samba-Server-Installation besteht aus zwei Teilen: Arbeitsgruppe oder Domäne Wählen Sie unter Arbeitsgruppe oder Domäne eine Arbeitsgruppe oder Domäne aus oder geben Sie eine neue ein und klicken Sie auf Weiter. 555) beschrieben ist. Beim ersten Start des Moduls wird das Dialogfeld SambaServer-Installation geöffnet. das Sie auffordert. In der Befehlszeile stoppen Sie für Samba erforderliche Dienste mit rcsmb stop && rcnmb stop und starten sie mit rcnmb start && rcsmb start. 28. Bei späteren Starts wird das Dialogfeld Samba-Server-Konfiguration geöffnet. ein paar grundlegende Entscheidungen hinsichtlich der Serveradministration zu treffen. Samba 555 .2 Starten und Stoppen von Samba Sie können den Samba-Server automatisch beim Booten oder manuell starten bzw. starten Sie YaST und wählen Sie Netzwerkdienste → Samba-Server. 28. stoppen. allerdings müssen Sie ohne den Komfort der Benutzeroberfläche von YaST zurechtkommen.3. und Sie am Ende der Konfiguration nach dem Passwort für Samba-root fragt.und Stopprichtlinien sind Teil der Samba-Serverkonfiguration mit YaST. Bei der manuellen Konfiguration können Sie mehr Details einstellen.28.1 Konfigurieren eines Samba-Servers mit YaST Um einen Samba-Server zu konfigurieren. Start. Um die Ausführung von Samba-Diensten mit YaST zu starten oder zu stoppen. „Konfigurieren eines Samba-Servers mit YaST“ (S. verwenden Sie System → Systemdienste (Runlevel).3.1.

Freigaben Legen Sie auf dieser Registerkarte die zu aktivierenden Samba-Freigaben fest.Samba-Servertyp Geben Sie im nächsten Schritt an. Wenn mehrere Netzwerkschnittstellen vorhanden sind.2. Um den Dienst bei jedem Systemboot zu starten. Klicken Sie auf Hinzufügen. auf Löschen. bzw. Identität Auf der Registerkarte Identität legen Sie fest. Klicken Sie zum Abschließen der Konfiguration auf Beenden. 556 Referenz . und klicken Sie auf Weiter. 555). wählen Sie During Boot (Beim Systemstart). wählen Sie die Netzwerkschnittstelle für SambaDienste. Mit Status wechseln können Sie zwischen den Statuswerten Aktiviert und Deaktiviert wechseln. Weitere Informationen über das Starten eines Samba-Servers erhalten Sie in Abschnitt 28. um die ausgewählte Freigabe zu entfernen. indem Sie auf Firewall-Details klicken. „Starten und Stoppen von Samba“ (S. Es gibt einige vordefinierte Freigaben wie Home-Verzeichnisse und Drucker. Sie können später alle Einstellungen von Samba-Server-Installation im Dialogfeld Samba-Server-Konfiguration auf der Registerkarte Identität ändern. die Schnittstellen auswählen und dann auf OK klicken. Um den manuellen Start zu aktivieren. um neue Freigaben hinzuzufügen. wählen Sie Manually (Manuell). zu welcher Domäne der Host gehört (Grundeinstellungen) und ob ein alternativer Hostname im Netzwerk (NetBIOSHostname) verwendet werden soll. Wählen Sie hierfür Open Port in Firewall (Firewall-Port öffnen). wenn Sie auf Erweiterte Einstellungen klicken. Beim ersten Start des Samba-Servermoduls wird das Dialogfeld Samba-Server-Konfiguration unmittelbar nach dem Dialogfeld Samba-Server-Installation geöffnet. Es besteht aus drei Registerkarten: Start Auf der Registerkarte Start können Sie den Start des Samba-Servers einstellen. ob Ihr Server als PDC fungieren soll. Globale Einstellungen für Experten oder die Benutzerauthentifizierung können Sie festlegen. Auf dieser Registerkarte können Sie auch Ports in Ihrer Firewall öffnen.

workgroup = TUX-NET Mit dieser Zeile wird der Samba-Server einer Arbeitsgruppe zugeordnet. Sollte der Name bereits vergeben sein. indem Sie in einem Webbrowser http://localhost:901 aufrufen und sich als root anmelden. Sie können SWAT verwenden. Öffnen Sie zur Aktivierung in YaST Netzwerkdienste → Netzwerkdienste (xinetd).3. sofern der Name noch nicht vergeben ist.28.2 Web-Administration mit SWAT Ein alternatives Werkzeug für die Administrationsaufgaben von Samba-Server ist SWAT (Samba Web Administration Tool). Der Abschnitt „global“ Die folgenden Parameter im Abschnitt [global] sind den Gegebenheiten Ihres Netzwerkes anzupassen. verwenden Sie das root-Systemkonto. Ersetzen Sie TUX-NET durch eine entsprechende Arbeitsgruppe Ihrer Netzwerkumgebung. Es stellt eine einfache Webschnittstelle zur Verfügung.3. wählen Sie swat aus der Tabelle und klicken Sie auf Status wechseln (Ein oder Aus). installieren Sie samba. Wenn Sie über kein spezielles root-Konto für Samba verfügen.conf. aktivieren Sie die Konfiguration der Netzwerkdienste. Der Abschnitt [global] enthält die zentralen und globalen Einstellungen. Der Samba-Server erscheint mit seinem DNS-Namen. Mit dieser Vorgehensweise können Details der Freigaben unterschiedlich oder im Abschnitt [global] übergreifend festgelegt werden. Diese Datei kann in zwei logische Bereiche aufgeteilt werden. ANMERKUNG: Aktivieren von SWAT Nach der Installation von Samba-Server ist SWAT nicht aktiviert. kann der Servername mithilfe Samba 557 . Die Abschnitte [share] enthalten die einzelnen Dateiund Druckerfreigaben. mit der Sie den Samba-Server konfigurieren können. Die Hauptkonfigurationsdatei von Samba ist /etc/samba/smb. damit Ihr Samba-Server in einer Windows-Umgebung von anderen Computern über SMB erreichbar ist. Letzteres trägt zur Übersichtlichkeit der Konfigurationsdatei bei. 28.3 Manuelles Konfigurieren des Servers Wenn Sie Samba als Server einsetzen möchten.

LMB (Local Master Browser) für seine Arbeitsgruppe zu werden. Wenn im Netzwerk kein anderer SMB-Server (z. da dies den Betrieb einer vorhandenen Windows-Netzwerkumgebung stören könnte.txt und BROWSING-Config.von netbiosname=MEINNAME festgelegt werden. 558 Referenz . B. setzen Sie den Parameter os level auf einen höheren Wert (z. Der Samba-Server wird dann als LMB für das lokale Netzwerk ausgewählt. wenn Ihre Windows-Systeme in getrennten Subnetzen betrieben werden und sich gegenseitig erkennen sollen. Sie müssen einen WINS-Server einrichten. Freigaben In den folgenden Beispielen werden einerseits das CD-ROM-Laufwerk und andererseits die Verzeichnisse der Nutzer (homes) für SMB-Clients freigegeben. Stellen Sie sicher. wins support und wins server Wenn Sie den Samba-Server in ein vorhandenes Windows-Netzwerk integrieren möchten. Weitere Informationen zu diesem Parameter finden Sie auf der Manualpage mansmb. Wählen Sie bewusst einen niedrigen Wert.oder 2000Server) vorhanden ist und der Samba-Server eine Liste aller in der lokalen Umgebung vorhandenen Systeme verwalten soll. Weitere Informationen zu diesem wichtigen Thema finden Sie in den Dateien BROWSING. 65). B. setzen Sie die Option wins support = Yes. ein Windows NT. Beim Ändern dieses Werts sollten Sie besonders vorsichtig sein.conf niemals gleichzeitig aktiviert sein. dass diese Einstellung nur auf einem einzigen Samba-Server im Netzwerk aktiviert wird.conf.txt im Unterverzeichnis textdocs der Paketdokumentation. ob er versucht. Um einen Samba-Server als WINS-Server festzulegen. aktivieren Sie den Parameter wins server und setzen Sie seinen Wert auf die IP-Adresse des WINS-Servers. damit ein vorhandenes Windows-Netz nicht durch einen falsch konfigurierten Samba-Server gestört wird. os level = 2 Anhand dieses Parameters entscheidet Ihr Samba-Server. Testen Sie Änderungen zuerst in einem isolierten Netzwerk oder zu unkritischen Zeiten. Die Optionen wins server und wins support dürfen in der Datei smb. in dem bereits ein WINS-Server betrieben wird.

Zur Beschreibung dieser Freigabe kann ein zusätzlicher comment hinzugefügt werden. Hat der Benutzer auf dem Linux-Dateiserver ein gültiges Konto und ein eigenes Home-Verzeichnis. path = /media/cdrom path exportiert das Verzeichnis /media/cdrom. locking = No [cdrom] und comment Der Eintrag [cdrom] ist der Name der Freigabe. fügen Sie der Konfiguration die Zeile guest ok = yes hinzu. Dies gilt umso mehr für die Verwendung dieses Parameters im Abschnitt [global].[cdrom] Um die versehentliche Freigabe eines CD-ROM-Laufwerks zu verhindern. Beispiel 28. Es wird empfohlen. [homes] Eine besondere Stellung nimmt die Freigabe [homes] ein. um das CDROM-Laufwerk für Samba freizugeben.[cdrom] . sind alle erforderlichen Zeilen dieser Freigabe durch Kommentarzeichen – hier Semikolons – deaktiviert. Beispiel 28. Durch diese Einstellung erhalten alle Benutzer im Netzwerk Leseberechtigungen. so kann er eine Verbindung zu diesem herstellen.2 homes-Freigabe [homes] comment = Home Directories valid users = %S browseable = No read only = No create mask = 0640 directory mask = 0750 Samba 559 . Soll die Freigabe für alle Benutzer bereitgestellt werden. Diese Art der Freigabe ist aufgrund einer bewusst restriktiv gewählten Voreinstellung lediglich für die auf dem System vorhandenen Benutzer verfügbar. Entfernen Sie die Semikolons in der ersten Spalte. path = /media/cdrom . diesen Parameter sehr vorsichtig zu verwenden.1 Eine CD-ROM-Freigabe . comment = Linux CD-ROM . die von allen SMB-Clients im Netzwerk gesehen werden kann.

valid users = %S verhindert den Lesezugriff auch dann. Soll also ein Verzeichnis als schreibbar freigegeben werden.[homes] Insoweit keine ausdrückliche Freigabe mit dem Freigabenamen des Benutzers existiert. Dies gilt jedoch nur für Freigaben mit Schreibberechtigung. sodass sie beim Erstellen einer Datei keine Berechtigungen zuweisen können.oder Schreibzugriff zu gewähren. wenn die Gruppe über Leseberechtigungen verfügt. welche Zugriffsberechtigungen neu erstellten Dateien zugewiesen werden. create mask = 0640 Nicht auf MS Windows NT basierende Systeme kennen das Konzept der UnixZugriffsberechtigungen nicht. was dem Wert writeable = Yes entspricht. browseable = No Durch diese Einstellung wird die Freigabe in der Netzwerkumgebung unsichtbar gemacht. muss der Wert read only = No festgesetzt werden. valid users = %S %S wird nach erfolgreichem Verbindungsaufbau durch den konkreten Freigabenamen ersetzt. Konkret wird hier dem Eigentümer das Lesen und Schreiben und den Mitgliedern der primären Gruppe des Eigentümers das Lesen erlaubt. Dabei ist der Freigabename identisch mit dem Benutzernamen. SMB kennt drei verschiedene Möglichkeiten der Berechtigungsprüfung: 560 Referenz . deaktivieren Sie die Zeile valid users = %S. Sicherheitsstufen (Security Levels) Jeder Zugriff auf eine Freigabe kann für mehr Sicherheit durch ein Passwort geschützt werden. Der Parameter create mask legt fest. Aus diesem Grund werden die Zugriffsberechtigungen auf die Freigabe eines Benutzers immer exklusiv auf den Eigentümer des Benutzerverzeichnisses beschränkt. Bei einer [homes]-Freigabe ist dies immer der Benutzername. read only = No Samba untersagt Schreibzugriff auf exportierte Freigaben standardmäßig mit dem Parameter read only = Yes. wird aufgrund der [homes]-Freigabe dynamisch eine Freigabe erzeugt. Um der Gruppe Lese. der die Verbindung zum SMB-Server herstellt.

Wenn sich mehrere Server auf einem System befinden. einzelne Freigaben einer Serverkonfiguration mit Share Level Security und andere mit User Level Security zu exportieren. Geben Sie im Dialogfeld SAMBA-Arbeitsgruppe die Domäne oder Arbeitsgruppe an. User Level Security (security = user) Diese Variante führt das Konzept des Benutzers in SMB ein. Weitere Informationen zu diesem Thema finden Sie in der Samba-HOWTO-Collection.Share Level Security (security = share) Einer Freigabe wird ein Passwort fest zugeordnet. der dieses Passwort kennt. Sie können jedoch auf einem System für jede konfigurierte IP-Adresse einen eigenen Samba-Server ausführen. im User Level Mode zu arbeiten. NetBEUI oder NetBIOS über IPX können mit Samba nicht verwendet werden. User und Server Level Security) gilt für den gesamten Server. der die Authentifizierung übernimmt. 28.und Serverebene (Share. um alle verfügbaren Samba 561 . Benutzer.1 Konfigurieren eines Samba-Clients mit YaST Konfigurieren Sie einen Samba-Client. Es ist nicht möglich. Die Sicherheit auf Freigabe-. Jeder Benutzer muss sich bei einem Server mit einem Passwort anmelden. beachten Sie die Optionen interfaces und bind interfaces only.4. Klicken Sie auf Durchsuchen.4 Konfigurieren der Clients Clients können auf den Samba-Server nur über TCP/IP zugreifen. Allerdings übergibt es alle Passwortanfragen an einen anderen User Level Mode Server. Diese Einstellung erwartet einen weiteren Parameter (password server). Jeder Benutzer. Nach der Authentifizierung kann der Server dann abhängig vom Benutzernamen Zugriff auf die einzelnen exportierten Freigaben gewähren. 28. um auf Ressourcen (Dateien oder Drucker) auf dem Samba-Server zuzugreifen. Server Level Security (security = server): Seinen Clients gibt Samba vor. hat Zugriff auf die Freigabe.

Um TCP/IP zu installieren. um die Konfiguration abzuschließen. erfolgt die Benutzerauthentifizierung über den Samba-Server. Am besten verbinden Sie diesen anschließend mit der LinuxDruckwarteschlange. 28.conf vorgenommen werden. Es müssen Einträge im Abschnitt [global] von smb.conf [global] workgroup = TUX-NET domain logons = Yes domain master = Yes 562 Referenz .2 Windows 9x und ME Die Unterstützung für TCP/IP ist in Windows 9x und ME bereits integriert. In einem Windows-basierten Netzwerk wird diese Aufgabe von einem Windows NT-Server erledigt. 28. dass sich Benutzer nur mit einem gültigen Konto und zugehörigem Passwort anmelden dürfen. sollten Sie den Standardoder den Apple-PostScript-Druckertreiber der entsprechenden Windows-Version installieren. Diese werden in Beispiel 28.5 Samba als Anmeldeserver In Netzwerken. Beispiel 28.4. Wenn Sie alle Einstellungen vorgenommen haben.Gruppen und Domänen anzuzeigen. wählen Sie Systemsteuerung → System und wählen Sie anschließend Hinzufügen → Protokolle → TCP/IP von Microsoft. der als Primary Domain Controller (PDC) konfiguriert ist. TIPP Um einen Drucker auf dem Samba-Server zu nutzen. 562) beschrieben. und wählen Sie die gewünschte Gruppe bzw. Wenn Sie Zusätzlich SMB-Informationen für LinuxAuthentifikation verwenden aktivieren. in denen sich überwiegend Windows-Clients befinden. ist es oft wünschenswert.conf“ (S. „Abschnitt „global“ in smb. Sie wird jedoch nicht standardmäßig installiert. Nach dem Neustart des Windows-Computers finden Sie den SambaServer durch Doppelklicken auf das Desktopsymbol für die Netzwerkumgebung. sie kann aber auch mithilfe eines Samba-Servers ausgeführt werden.3. Domäne mit einem Mausklick aus. die PostScript als Eingabeformat akzeptiert.3 Abschnitt „global“ in smb. klicken Sie auf Beenden.

die diese Arbeiten automatisieren. Wenn Samba installiert ist.0 ab Service Pack 3 und allen späteren Produkten). muss der Samba Server damit umgehen können. Anschließend können Sie allen Mitgliedern der Linux-Gruppe den Status Domain Admin zuweisen. 28.6 Weitere Informationen Ausführliche Informationen zu Samba finden Sie in der digitalen Dokumentation. MS Windows NT 4. In der kommentierten Beispielkonfiguration (/usr/share/doc/packages/Samba/examples/ smb.pdf). Außerdem müssen die Benutzerkonten bzw.Werden zur Verifizierung verschlüsselte Passwörter genutzt (Standard bei gepflegten MS Windows 9x-Installationen. Beispiel 28.5 Automatisiertes Einrichten eines Computerkontos add machine script = /usr/sbin/useradd -g nogroup -c "NT Machine Account" \ -s /bin/false %m\$ Damit dieses Skript von Samba richtig ausgeführt werden kann. Fügen Sie hierzu der Gruppe ntadmin einen entsprechenden Benutzer hinzu. indem Sie folgenden Befehl eingeben: net groupmap add ntgroup="Domain Admins" unixgroup=ntadmin Weitere Informationen zu diesem Thema finden Sie in Kapitel 12 der Samba-HOWTOCollection (/usr/share/doc/packages/samba/Samba-HOWTO-Collection . können Sie in der Befehlszeile apropos samba eingeben. Dies wird durch den Eintrag encrypt passwords = yes im Abschnitt [global] aktiviert (ab Samba Version 3 ist dies Standard). Da nach dem Windows NT-Domänenkonzept auch die Computer selbst ein Domänenkonto benötigen. Der Befehl smbpasswd fügt dieses bei der Verwendung des Parameters -m automatisch hinzu. Dies erfolgt mit dem Befehl smbpasswd -a name. die Passwörter in eine Windows-konforme Verschlüsselungsform gebracht werden. um Samba 563 . benötigen Sie noch einen Samba-Benutzer mit Administratorrechten.SuSE) sind Einstellungen enthalten.conf. wird dieses mit den folgenden Befehlen angelegt: Beispiel 28.4 Einrichten eines Computerkontos useradd hostname\$ smbpasswd -a -m hostname Mit dem Befehl useradd wird ein Dollarzeichen hinzugefügt.

Alternativ dazu finden Sie im Verzeichnis /usr/ share/doc/packages/samba weitere Online-Dokumentationen und Beispiele. 564 Referenz . Das Samba-Team liefert in der Samba-HOWTO-Collection einen Abschnitt zur Fehlerbehebung.pdf. Nach der Installation des Pakets samba-doc finden Sie die HOWTO-Informationen im Verzeichnis /usr/share/doc/packages/samba/ Samba-HOWTO-Collection.conf.SuSE) finden Sie im Unterverzeichnis examples. Eine kommentierte Beispielkonfiguration (smb.einige Manualpages aufzurufen. In Teil V ist außerdem eine ausführliche Anleitung zum Überprüfen der Konfiguration enthalten.

das Zulassen oder Verweigern des Zugriffs auf bestimmte Webseiten mithilfe anderer Anwendungen und das Erstellen von Statistiken zu häufig besuchten Webseiten zur Bewertung der Internetgewohnheiten des Benutzers. die für die Inbetriebnahme erforderlichen Einstellungen. dass er angeforderte Internetobjekte. Wenn die angeforderten Objekte vom Server eintreffen. Squid dient als Proxy-Cache. wie beispielsweise Daten auf einem Web. der sich näher an der Arbeitsstation befindet. wie Calamaris und cachemgr. die dasselbe Objekt anfordern. Er fungiert normalerweise nur bei HTTP-Verbindungen als Proxy. Dadurch können die Clients die Daten wesentlich schneller erhalten als aus dem Internet. auf einem Computer speichert. die Konfiguration des Systems für transparentes Proxying.Der Proxyserver Squid 29 Squid ist ein häufig verwendeter Proxy-Cache für Linux. In diesem Kapitel werden seine Konfiguration. die die Anforderung ausgegeben hat. die Sammlung von statistischen Informationen zur Verwendung des Cache mithilfe von Programmen. Da Squid nur das UDP-Protokoll für die Bereitstellung von Kommunikation zwischen Der Proxyserver Squid 565 . Einer der Vorteile des Cachings besteht darin.und UNIX-Plattformen. die auf den Proxy zugreifen. Gopher. wie Real Audio. SSL und WAIS. Durch dieses Verfahren wird außerdem der Datenverkehr im Netzwerk reduziert. Außerdem unterstützt er die Protokolle FTP. nicht jedoch andere Internetprotokolle. als der Server. Squid ist kein generischer Proxy. die Definition strenger Zugriffssteuerungslisten für alle Clients. wie die Verteilung der Last auf mehrere miteinander kommunizierende Hierarchien von Proxyservern. Er leitet Objektanforderungen von Clients (in diesem Fall: von Webbrowsern) an den Server weiter. Das bedeutet. aus dem Festplatten-Cache versorgt werden können. dass mehrere Clients.oder FTP-Server. stellt er die Objekte dem Client zu und behält eine Kopie davon im Festplatten-Cache. News oder Video-Konferenzen. und die Filterung von Webinhalten mit squidGuard erörtert. Neben dem eigentlichen Caching bietet Squid eine breite Palette von Funktionen.

das bereits im lokalen Netzwerk vorhanden ist. In Kombination mit einer Firewall kann er die Sicherheit unterstützen. um interne Netzwerke mithilfe eines Proxy-Caches gegen Zugriffe von außen zu schützen. 578) wird die Implementierung eines transparenten Proxy beschrieben. Außerdem kann er ermitteln. 29. Bei dieser Konfiguration steuert Squid den gesamten Webzugriff. Wenn zur Firewall-Konfiguration eine DMZ gehört. sollte der Proxy in dieser Zone betrieben werden.1 Einige Tatsachen zu Proxy-Caches Als Proxy-Cache kann Squid auf verschiedene Weise verwendet werden. ein Objekt zu finden. Alle Webverbindungen müssen vom Proxy erstellt werden.1.verschiedenen Caches unterstützt. Mehrere Proxies können gemeinsam verwendet werden.1. 29.5. In Abschnitt 29. werden zahlreiche andere Multimedia-Programme nicht unterstützt.1 Squid und Sicherheit Squid kann zusammen mit einer Firewall verwendet werden. Die Firewall verweigert allen Clients Zugriff auf externe Dienste mit Ausnahme von Squid. „Konfigurieren eines transparenten Proxy“ (S. welche Objekttypen für wie lange im Cache gespeichert werden sollen. Außerdem können Cache-Hierarchien konfiguriert werden. da sie in diesem Fall keine Informationen zum Proxy benötigen. 29.2 Mehrere Caches Mehrere Instanzen von Squid können für den Austausch von Objekten konfiguriert werden. sodass er Objekte aus einem anderen Cache im lokalen Netzwerk oder direkt von der Quelle erhält. Dadurch wird die Konfiguration der Clients erleichtert. sodass ein Cache Objektanforderungen an gleichgeordnete Caches oder einen übergeordneten Cache weiterleiten kann. Dadurch verringert sich die Gesamtlast im System und die Wahrscheinlichkeit. 566 Referenz . erhöht sich.

das Gesamtaufkommen an Datenverkehr im Netzwerk zu erhöhen. das über dem UDP-Protokoll ausgeführt wird. Um dies zu ermitteln. Um den geeignetsten Server zum Abrufen der Objekte zu finden. beispielsweise „Zuletzt Der Proxyserver Squid 567 . wie lange alle anderen im Cache gespeicherten Objekte dort verbleiben sollten. Je mehr Objekte sich im Netzwerk befinden. legt der Proxyserver fest. Es bleibt die Frage. Besucherzähler und verschlüsselter SSL-Inhaltsdokumente. wenn das Objekt erkannt wurde bzw. Wenn mehrere HIT-Antworten gefunden wurden. Web. 29. TIPP Um eine Verdopplung der Objekte in verschiedenen Caches im Netzwerk zu vermeiden. indem sie Header zu diesen Objekten hinzufügen. welcher näher ist. Wenn keine zufrieden stellenden Antworten eingehen. mit einem MISS-Code. wie beispielsweise CARP (Cache Array Routing Protocol) oder HTCP (Hypertext Cache Protocol). einen Proxyserver für jedes Subnetzwerk zu konfigurieren und mit einem übergeordneten Proxy zu verbinden. Bei sehr großen Netzwerken ist es sinnvoll. da es nicht erstrebenswert ist. sendet ein Cache eine ICP-Anforderung an alle gleichgeordneten Proxies. von welchem Server heruntergeladen werden soll. desto größer ist die Wahrscheinlichkeit.Die Auswahl einer geeigneten Topologie für die Cache-Hierarchie ist von entscheidender Bedeutung. wird die Anforderung an den übergeordneten Cache gesendet. welcher Cache die schnellste Antwort gesendet hat bzw. Die Übertragungen zwischen den Caches erfolgen über HTTP (Hypertext Transmission Protocol) auf der Grundlage von TCP. Derartige Objekte werden nicht im Cache gespeichert. Diese gesamte Kommunikation wird über das ICP (Internet Cache Protocol) abgewickelt.1. Diese Entscheidung ist unter anderem davon abhängig.und Proxyserver ermitteln den Status eines Objekts.3 Caching von Internetobjekten Nicht alle im Netzwerk verfügbaren Objekte sind statisch. das gewünschte zu finden. der wiederum mit dem Proxy-Cache des ISP verbunden ist. da sie sich bei jedem Zugriff ändern. Diese beantworten die Anforderungen über ICP-Antworten mit einem HIT-Code. wenn es nicht erkannt wurde. werden andere ICP-Protokolle verwendet. Es gibt eine Vielzahl dynamisch erstellter CGI-Seiten. wird allen Objekten im Cache einer von mehreren möglichen Zuständen zugewiesen.

wie beispielsweise LRU (last recently used). Eine Möglichkeit zur Systembeschleunigung besteht in der gleichzeitigen Verwendung mehrerer Festplatten oder im Einsatz von Striping-RAID-Arrays. verwendet. Die folgenden Abschnitte widmen sich den einzelnen Systemfaktoren in der Reihenfolge ihrer Wichtigkeit. die maximale Netzwerklast zu ermitteln. Wenn beispiels- 568 Referenz . die Systemanforderungen zu hoch einzuschätzen. Dies bedeutet im Wesentlichen. dass der Proxy die Objekte löscht. da der Cache schnell voll ist und die weniger häufig angeforderten Objekte durch neuere ersetzt werden.2 Größe des Festplatten-Cache Bei einem kleinen Cache ist die Wahrscheinlichkeit eines HIT (Auffinden des angeforderten Objekts.2.2 Systemvoraussetzungen Die wichtigste Aufgabe besteht darin. Bei Festplatten wird dieser Parameter als random seek time (Zufallszugriffszeit. die am längsten nicht mehr angefordert wurden. Für die Zwecke von Proxies sind Festplatten mit hoher Rotationsgeschwindigkeit wohl die bessere Wahl. werden ebenfalls verwendet. Dazu werden Algorithmen. Da die Datenblöcke. 29. das sich bereits dort befindet) gering. da bei diesen der Lese-Schreib-Kopf schneller an die gewünschte Stelle gebracht werden kann. ist die Zugriffszeit der Festplatte entscheidender als ihr Datendurchsatz. muss diesem Faktor besondere Aufmerksamkeit gewidmet werden. eher klein zu sein scheinen. da es zu erheblichen Einbußen in der Qualität des Diensts führen kann.2. gemessen in Millisekunden) beschrieben. wenn Squid an der Grenze seiner Leistungsfähigkeit arbeitet.geändert“ oder „Läuft ab“. dass Objekte nicht im Cache gespeichert werden dürfen. 29. Andere Header. Daher muss besonders auf die Belastungsspitzen geachtet werden. 29. die mehr als das Vierfache des Tagesdurchschnitts betragen können. Objekte im Cache werden normalerweise aufgrund mangelnden Festplattenspeichers ersetzt. die das System tragen muss.1 Festplatten Da Geschwindigkeit beim Caching eine wichtige Rolle spielt. und das entsprechende Datum. die angeben. Im Zweifelsfall ist es vorzuziehen. die Squid von der Festplatte liest oder auf die Festplatte schreibt.

RAM ist wesentlich schneller als eine Festplatte. um den Cache zu füllen. Das Werkzeug cachemgr. das auf den Cache zukommt. Zugriffssteuerungslisten. bei etwa 2 GB liegt. beispielsweise eine Tabelle mit allen IP-Adressen. Dadurch würden bei 8 Arbeitsstunden 3.oder Intel EM64T-Systems mit mehr als 4 GB Arbeitsspeicher in Erwägung gezogen werden. während die Inhalte des Cache geladen oder überprüft werden.cgi kan für die Arbeitsspeicherverwaltung des Cache verwendet werden. 29.3 RAM Der von Squid benötigte Arbeitsspeicher (RAM) steht in direktem Verhältnis zur Anzahl der Objekte im Cache.4 CPU Die Verwendung von Squid bringt keine intensive CPU-Auslastung mit sich.2. die Squid im Arbeitsspeicher benötigt. einen exakten Domänennamen-Cache.weise 1 GB für den Cache zur Verfügung steht und die Benutzer nur Datenverkehr im Umfang von 10 MB pro Tag in Anspruch nehmen. Bei einer Verbindung mit 1 Mbit/s beträgt die maximale Übertragungsrate 125 KB/s. Daher sind bei diesem Beispiel 2 GB Festplattenspeicher erforderlich. 29. Die Prozessorlast wird nur erhöht. Außerdem gibt es andere Daten. damit Squid die durchsuchten Daten eines Tags im Cache speichern kann.cgi“ (S.2. Dieses Werkzeug wird in Abschnitt 29. Durch die Verwendung eines Computers mit mehreren Prozessoren wird die System- Der Proxyserver Squid 569 . Bei Sites mit extrem hohem Netzwerkverkehr sollte die Verwendung eines AMD64. ergeben sich in einer Stunde 450 MB. Wenn dieser Datenverkehr vollständig im Cache gespeichert wird. um das Abrufen dieser Daten zu beschleunigen. dass das Gesamtdatenvolumen. dauert es mehrere hundert Tage. „cachemgr. dass genügend Arbeitsspeicher für den Squid-Vorgang zur Verfügung steht. die am häufigsten angeforderten Objekte. 581) behandelt. Die einfachste Methode zur Ermittlung der benötigten Cache-Größe geht von der maximalen Übertragungsrate der Verbindung aus. Puffer usw. Außerdem speichert Squid Cache-Objekt-Bezüge und häufig angeforderte Objekte im Hauptspeicher. kann angenommen werden.6 GB an einem einzigen Tag erreicht. da die Systemleistung erheblich eingeschränkt ist. Da normalerweise nicht das gesamte Volumen der Verbindung ausgeschöpft wird. wenn ein Wechsel auf die Festplatte erforderlich ist. Es ist sehr wichtig.6.

sollte das Netzwerk so konfiguriert werden. Um die Effizienz zu steigern. wenn kein DNS-Server in /etc/resolv.conf gefunden wird. wenn eine Einwahlverbindung zusammen mit einer dynamischen DNS-Konfiguration verwendet wird.3. Verwenden Sie hierfür rcsquid reload. Beim ersten Start muss zunächst die Verzeichnisstruktur des Cache in /var/cache/squid definiert werden. Es können Probleme auftreten. 570 Referenz . Alternativ können Sie mit rcsquid restart einen vollständigen Neustart von Squid durchführen. Wenn rechts in grüner Schrift done angezeigt wird.2. Dies geschieht automatisch über das Startskript /etc/init.conf von http_access deny all in http_access allow all ändern. dass dadurch jedem der vollständige Zugriff auf Squid ermöglicht wird. „Optionen für die Zugriffssteuerung“ (S. dass mindestens ein Namenserver und das Internet erreicht werden können. geben Sie localhost als Proxy und 3128 als Port im Browser an. Weitere Informationen hierzu finden Sie in Abschnitt 29. Um Benutzern aus dem lokalen System und anderen Systemen den Zugriff auf Squid und das Internet zu ermöglichen. Um die Funktionsfähigkeit von Squid im lokalen System zu testen. sollten vielmehr schnellere Festplatten oder ein größerer Arbeitsspeicher verwendet werden.d/squid und kann einige Sekunden oder sogar Minuten in Anspruch nehmen.1 Befehle zum Starten und Stoppen von Squid Geben Sie zum Starten von Squid als root in der Befehlszeile den Befehl rcsquid start ein. Sie können das Programm unmittelbar nach der Installation starten. In diesem Fall sollte zumindest der Namenserver eingegeben werden.leistung nicht erhöht. Beachten Sie dabei jedoch. Nach der Bearbeitung der Konfigurationsdatei /etc/squid/squid. 29. da Squid nicht startet. müssen Sie den Eintrag in den Konfigurationsdateien /etc/squid/squid.4. die den Zugriff auf den Proxy steuern. 29. wurde Squid erfolgreich geladen.conf muss Squid die Konfigurationsdatei erneut laden. Daher sollten Sie ACLs definieren. Um einen reibungslosen Start zu gewährleisten. 576).3 Starten von Squid Squid ist in SUSE Linux bereits vorkonfiguriert.

Systemkonfiguration mit YaST.log. WARNUNG: Beenden von Squid Das Beenden von Squid mit kill oder killall kann zur Beschädigung des Cache führen. muss der beschädigte Cache gelöscht werden. Dieses Verhalten wird in der Datei /etc/sysconfig/network/config mit der sysconfig-Variablen Der Proxyserver Squid 571 . Mit dem Befehl rcsquid stop wird Squid heruntergefahren. Um diese zu entfernen. ohne dass irgendeine spezielle Konfiguration erforderlich ist (siehe Abschnitt 20. obwohl das Programm erfolgreich gestartet wurde. müssen Sie das Verzeichnis /var/ cache/squid manuell löschen. Squid protokolliert die Ursache eines Startfehlers in der Datei /var/log/squid/cache. ob Sie bei der Konfiguration der Internetverbindung dynamisches DNS auswählen. ↑Start). bevor es die Verbindungen zu den Clients trennt und seine Daten auf die Festplatte schreibt.3.conf fehlt. ob ein fehlerhafter Namenservereintrag vorliegt oder ob die Datei /etc/resolv. selbst wenn er nicht seine eigene Domäne verwaltet. Dynamisches DNS Normalerweise wird bei dynamischem DNS der DNS-Server während des Aufbaus der Internetverbindung vom Anbieter festgelegt und die lokale Datei /etc/ resolv.Mit dem Befehl rcsquid status kann überprüft werden. müssen Sie Squid mithilfe des YaSTRunlevel-Editors für die gewünschten Runlevels aktivieren. 408)). Damit Squid neu gestartet werden kann. Wie dies durchgeführt werden kann. Er fungiert dann einfach als Nur-Cache-Namenserver und kann außerdem DNS-Anforderungen über die Root-Namenserver auflösen. überprüfen Sie. ob der Proxy ausgeführt wird. hängt davon ab.2 Lokaler DNS-Server Die Einrichtung eines lokalen DNS-Servers ist sinnvoll.3.conf wird automatisch angepasst. Siehe Abschnitt „Systemdienste (Runlevel)“ (Kapitel 2.conf) wartet. Wenn Squid nach kurzer Zeit nicht mehr funktioniert. Durch eine Deinstallation von Squid werden weder die Cache-Hierarchie noch die Protokolldateien entfernt. Wenn Squid beim Booten des Systems automatisch geladen werden soll. „Starten des Namenservers BIND“ (S. 29. da Squid bis zu einer halben Minute (Option shutdown_lifetime in /etc/squid/squid. Dieser Vorgang kann einige Zeit in Anspruch nehmen.

Außerdem muss der statische Namenserver des Anbieters zusammen mit seiner IP-Adresse manuell in die Datei /etc/named . Auf diese Weise kann Squid immer den lokalen Namenserver finden. Setzen Sie diese Variable mit dem sysconfig-Editor von YaST auf „no“ (sieheAbschnitt 8.1. TIPP: DNS und Firewall Wenn eine Firewall ausgeführt wird.1 für localhost.4 Die Konfigurationsdatei /etc/squid/squid.0.MODIFY_RESOLV_CONF_DYNAMICALLY gesteuert. müssen Sie sicherstellen. sodass auch keine sysconfig-Variablen geändert werden müssen. Die vorinstallierte Konfigurationsdatei /etc/squid/squid. Fast alle Einträge beginnen mit # (kommentierte Zeilen) und die relevanten Spezifikationen befinden sich am Ende der 572 Referenz . dass DNSAnforderungen durchgelassen werden. Sie müssen jedoch den lokalen DNS-Server in die Datei /etc/resolv. Der Standardport ist 3128. Um den Zugriff auf den Namenserver des Anbieters zu ermöglichen. Der Proxy ist für localhost verfügbar. geben Sie ihn zusammen mit seiner IP-Adresse in die Konfigurationsdatei /etc/named .conf unter forwarders ein.conf Alle Einstellungen für den Squid-Proxyserver werden in der Datei /etc/squid/ squid.conf unter forwarders eingegeben werden.conf bietet detaillierte Informationen zu den Optionen sowie zahlreiche Beispiele.conf vorgenommen. 29. wenn er gestartet wird. indem die sysconfig-Variable MODIFY_NAMED_CONF_DYNAMICALLY auf YES gesetzt wird. Mit dynamischem DNS kann dies automatisch während des Verbindungsaufbaus erreicht werden. externen Clients wird jedoch ursprünglich der Zugriff verweigert. wie oben beschrieben. Verwenden Sie die IP-Adresse 127. Geben Sie anschließend den lokalen DNS-Server in die Datei /etc/resolv.3. die auf „yes“ gesetzt ist. Beim ersten Start von Squid sind keine Änderungen in dieser Datei erforderlich. Statisches DNS Beim statischen DNS finden beim Verbindunsgsaufbau keine automatischen DNSAnpassungen statt.conf ein.0.conf eingeben. 207)). „Ändern der Systemkonfiguration mithilfe des YaST-Editors „sysconfig““ (S.

da die Optionen manchmal bearbeitet und neue Änderungen hinzugefügt werden. den Squid auf Client-Anforderungen überwacht. sodass das Entfernen der Kommentarzeichen ohne Ändern der Parameter in den meisten Fällen kaum Auswirkungen hat. dass die Konfiguration nicht mehr funktioniert. Sie können auch mehrere Portnummern durch Leerzeichen getrennt eingeben. beispielsweise wenn Sie den Proxy Ihres ISP verwenden möchten. 8080 wird jedoch ebenfalls häufig verwendet. in der Regel 8080. Wenn Sie versuchen.4.1 Allgemeine Konfigurationsoptionen (Auswahl) http_port 3128 Dies ist der Port. Der Proxyserver Squid 573 . Die angegebenen Werte korrelieren fast immer mit den Standardwerten.Zeile. Geben Sie als proxy-port die Portnummer ein. Auf diese Weise können die Standardwerte problemlos wiederhergestellt und mit den Änderungen verglichen werden. Außerdem können default und no-query nach den Portnummern angegeben werden. Der StandardPort ist 3128. die ebenfalls vom Operator des Parent für die Verwendung im Browser angegeben wurde.conf bearbeiten und nur die in der vorherigen Datei vorgenommenen Änderungen übernehmen. 29. TIPP: Anpassen der Konfigurationsdatei nach einer Aktualisierung Wenn Sie eine Aktualisierung einer früheren Squid-Version durchgeführt haben. cache_peer hostname type proxy-port icp-port Geben Sie hier einen übergeordneten Proxy ein. die alte squid.conf zu verwenden. Lassen Sie die Beispiele nach Möglichkeit unverändert und geben Sie die Optionen zusammen mit den geänderten Parametern in der Zeile darunter ein. Geben Sie als hostname den Namen und die IPAdresse des zu verwendenden Proxy und als type parent ein. sollten Sie die neue Datei /etc/squid/squid. wenn der ICP-Port des übergeordneten Proxy nicht bekannt ist und seine Verwendung für den Anbieter nicht wichtig ist. um die Verwendung des ICP-Protokolls zu verhindern. besteht das Risiko. Setzen Sie icp-port auf 7 oder 0. Squid verhält sich dann in Bezug auf den Proxy des Anbieters wie ein normaler Browser.

cache_log /var/log/squid/cache. 574 Referenz . Der Parameter ufs sollte nicht geändert werden. Dieser Wert gibt nicht die Arbeitsspeichernutzung von Squid an und kann überschritten werden. da zu viele Verzeichnisse ebenfalls zu Leistungsproblemen führen können. Die letzte Ziffer der IP-Adresse wird auf 0 gesetzt. Die letzten beiden Werte für die Verzeichnisse sollten nur nach reiflicher Überlegung erhöht werden. Normalerweise werden hier keine Änderungen vorgenommen. Die Zahlen am Ende geben den maximal zu verwendenden Festplattenspeicher in BM und die Anzahl der Verzeichnisse auf der ersten und zweiten Ebene an. unter denen Squid alle Aktionen protokolliert. in dem alle Objekte auf dem Datenträger gespeichert werden. Der Standardwert ist 8 MB.0 eingeben.cache_mem 8 MB Dieser Eintrag legt fest. Bei hoher Auslastung von Squid kann es sinnvoll sein.log Diese drei Einträge geben die Pfade an. Werte von mindestens 50 bis maximal 80 % des verfügbaren Speicherplatzes erscheinen hier am sinnvollsten. erhalten Sie lesbare Protokolldateien.255.log. cache_access_log /var/log/squid/access. Cache und Protokolldateien auf mehrere Datenträger zu verteilen.log. client_netmask 255.255. Auf diese Weise können Sie den Datenschutz für die Clients gewährleisten. die wiederum jeweils 256 Unterverzeichnisse aufweisen. genügend Reserve einzuplanen.255. wie viel Arbeitsspeicher Squid für besonders beliebte Antworten verwenden kann.255 Mit diesem Eintrag werden die IP-Adressen von Clients in den Protokolldateien maskiert. Wenn der Cache von mehreren Datenträgern gemeinsam verwendet wird. emulate_httpd_log off Wenn der Eintrag auf on gesetzt ist. Standardmäßig werden 100 MB Speicherplatz im Verzeichnis /var/cache/ squid belegt und 16 Unterverzeichnisse erstellt. Achten Sie bei der Angabe des zu verwendenden Speicherplatzes darauf. wenn Sie hier 255. müssen Sie mehrere cache_dir-Zeilen eingeben. cache_store_log /var/log/squid/store. Einige Evaluierungsprogramme können solche Dateien jedoch nicht interpretieren. cache_dir ufs /var/cache/squid/ 100 16 256 Der Eintrag cache_dir legt das Verzeichnis fest.255.

Bei diesem Prozess werden die Dateien nummeriert und nach dem Erreichen des angegebenen Werts wird die älteste Datei überschrieben. In solchen Fällen sollten Sie minutes in seconds ändern. forwarded_for on Wenn Sie den Eintrag auf off setzen. Andernfalls wird eine Zeile zum Header hinzugefügt. Squid protokolliert die nicht erfolgreichen Anforderungen und lässt dann keine weiteren zu. wenn keine angegeben wurde. Bei einer Einwahlverbindung kann das Internet jedoch zeitweise nicht verfügbar sein.0. auch wenn die Internetverbindung zwischenzeitlich wieder hergestellt wurde. Es kann sinnvoll sein. Normalerweise wird hier die eigene Domäne angegeben. an die Squid eine Meldung sendet. sodass bei der Eingabe von www im Browser ein Zugriff auf Ihren eigenen Webserver erfolgt. da einige FTP-Server die Adressen auf Gültigkeit prüfen. negative_dns_ttl 5 minutes Die hier angegebenen Werte müssen in der Regel nicht geändert werden.0 negative_ttl 5 minutes. cache_mgr webmaster Eine E-Mail-Adresse. append_domain <Domaene> Mit append_domain können Sie angeben. entfernt Squid die IP-Adresse und den Systemnamen des Client aus den HTTP-Anforderungen.168. da das Archivieren und Löschen von Protokolldateien in SUSE Linux von einem in der Konfigurationsdatei /etc/ logrotate/squid festgelegten Cronjob durchgeführt wird. Der Proxyserver Squid 575 . das Squid für die anonyme FTPAnmeldung verwenden soll. Der Standardwert ist 0.ftp_user Squid@ Mit dieser Option wird das Passwort festgelegt. Der Standardwert ist webmaster. hier eine gültige E-MailAdresse anzugeben. wenn es plötzlich abstürzt. beispielsweise: X-Forwarded-For: 192. logfile_rotate 0 Bei Ausführung von squid -k rotate kann Squid ein Rotationssystem für gesicherte Protokolldateien einführen. Danach sollte nach dem Klicken auf Neu laden im Browser der Einwahlvorgang nach wenigen Sekunden wieder aktiviert werden. welche Domäne automatisch angefügt wird.

localhost und all wurden bereits oben definiert. die Sie im Abschnitt ACCESS CONTROLS in der Datei /etc/squid/squid. Es können Listen mit einer beliebigen Anzahl von http_access. Durch die Implementierung von ACLs kann es problemlos und umfassend konfiguriert werden. wie beispielsweise all und localhost. Als <Typ> können Sie aus einer Vielzahl verschiedener Optionen wählen. IP-Adressen oder URLs. Der Name <ACL-Name> kann frei gewählt werden. dass Squid Anforderungen direkt aus dem Internet entgegennimmt.0/255. wenn Sie einen Anbieter verwenden. Im Folgenden finden Sie einige einfache Beispiele: acl acl acl acl mysurfers srcdomain .never_direct allow ACL-Name Um zu verhindern. bevor sie verwendet werden können. werden alle Anforderungen zwangsweise direkt an den übergeordneten Proxy (parent) weitergeleitet. Die ACLs müssen zuerst definiert werden. acl <ACL-Name> <Typ> <Daten> Für die Definition einer ACL sind mindestens drei Spezifikationen erforderlich.168.0-192.255. allow verweigern bzw.4.com teachers src 192.0/255.168. dass sie tatsächlich angewendet wird.255. wer den Proxy verwenden kann und wer auf welche Seiten im Internet zugreifen kann. Dies kann beispielsweise dann erforderlich sein.168. Die bloße Definition einer ACL bedeutet jedoch noch nicht. Die Spezifikation für <Daten> hängt vom einzelnen ACL-Typ ab und kann auch aus einer Datei gelesen werden.Einträgen erstellt und von oben nach unten verarbeitet 576 Referenz .1.conf finden. die nacheinander verarbeitet werden.255.my-domain. Hierfür müssen ACLs angegeben werden. Dies geschieht nur in Verbindung mit http_access-Regeln.7. Wenn als ACL-Name all angegeben wird. Diese Optionen können den Zugriff über deny bzw.9. Einige StandardACLs.2 Optionen für die Zugriffssteuerung Squid bietet ein detailliertes System für die Steuerung des Zugriffs auf den Proxy. beispielsweise über Hostnamen.0 students src 192.255. 29. müssen Sie mit dem oben stehenden Befehl die Verbindung mit einem anderen Proxy erzwingen. sind bereits vorhanden. Dieser muss zuvor unter cache_peer eingegeben worden sein.0 lunch time MTWHF 12:00-15:00 http_access allow <ACL-Name> http_access legt fest. zulassen. der die Verwendung der eigenen Proxies strikt vorschreibt oder der durch seine Firewall direkten Internetzugriff verweigert. Dazu gehören Listen mit Regeln.

http_access http_access http_access http_access deny localhost allow teachers allow students lunch time deny all Die Liste mit den http_access-Einträgen sollte um der besseren Lesbarkeit willen nur an der angegebenen Position in der Datei /etc/squid/squid. auth_param basic program /usr/sbin/pam_auth Wenn die Benutzer auf dem Proxy authentifiziert werden müssen. während allen anderen Hosts der Zugriff vollständig verweigert wird. wie beispielsweise squidGuard. Außerdem ist noch immer eine ACL erforderlich. Der Internetzugang kann mithilfe der Proxy-Authentifizierung und der entsprechenden ACLs individuell für verschiedene Benutzergruppen gesteuert werden. angeben. geben Sie ein entsprechendes Programm an. Im folgenden Beispiel hat localhost freien Zugriff auf alle Elemente. Also zwischen dem Text # INSERT YOUR OWN RULE(S) HERE TO ALLOW ACCESS FROM YOUR # CLIENTS und dem letzten http_access deny all redirect_program /usr/bin/squidGuard Mit dieser Option können Sie eine Umleitungsfunktion. bei dem diese Regeln verwendet werden. Beim ersten Zugriff auf pam_auth wird dem Benutzer ein Anmeldefenster angezeigt.werden. http_access allow localhost http_access deny all In einem anderen Beispiel. das installiert und konfiguriert werden kann. hat die Gruppe teachers immer Zugriff auf das Internet. Die Gruppe students erhält nur montags bis freitags während der Mittagspause Zugriff. beispielsweise pam_auth. was zuerst vorkommt. die das Blockieren unerwünschter URLs ermöglicht. sodass nur Clients mit einer gültigen Anmeldung das Internet benutzen können. Der letzte Eintrag sollte immer http_access deny all lauten.conf eingegeben werden. Je nachdem. Der Proxyserver Squid 577 . wird der Zugriff auf die betreffende URL gestattet oder verweigert. squidGuard ist ein gesondertes Paket. in das er den Benutzernamen und das Passwort eingeben muss.

Außerdem muss ein ident-Daemon auf allen Clients ausgeführt werden. definieren Sie hier eine entsprechende ACL: acl identhosts ident REQUIRED http_access allow password http_access deny all Ersetzen Sie auch hier REQUIRED durch eine Liste der zulässigen Benutzernamen.acl password proxy_auth REQUIRED http_access allow password http_access deny all Das REQUIRED nach proxy_auth kann durch eine Liste der zulässigen Benutzernamen oder durch den Pfad zu einer solchen Liste ersetzt werden. Bei der Arbeit in einem Netzwerk können verschiedene Situationen entstehen: • Aus Sicherheitsgründen sollten alle Clients einen Proxy für den Zugriff auf das Internet verwenden. unabhängig davon. Durch die Verwendung von ident kann die Zugriffszeit erheblich reduziert werden. gilt dies für alle Clients. Für Microsoft Windows steht kostenlose Software zum Herunterladen aus dem Internet zur Verfügung. 578 Referenz . ob sie sich in seinem Cache befinden oder nicht. ident_lookup_access allow <ACL-Name> Lassen Sie damit eine ident-Anforderung für alle ACL-definierten Clients ausführen. da die ident-Lookups für jede Anforderung wiederholt werden. Bei Linux installieren Sie für diesen Zweck das Paket „pidentd“. Um sicherzustellen.5 Konfigurieren eines transparenten Proxy Normalerweise läuft die Arbeit mit Proxyservern folgendermaßen ab: Der Webbrowser sendet Anforderungen an einen bestimmten Port im Proxyserver und der Proxy stellt die angeforderten Objekte bereit. Wenn Sie all auf <ACLName> anwenden. um die Identität der einzelnen Benutzer zu ermitteln. dass nur Clients mit einem erfolgreichen ident-Lookup zulässig sind. 29.

um den transparenten Proxy in Betrieb zu nehmen: • httpd_accel_host virtual • httpd_accel_port 80 Die Portnummer des eigentlichen HTTP-Servers • httpd_accel_with_proxy on • httpd_accel_uses_host_header on 29.1 Konfigurationsoptionen in /etc/squid/squid. In all diesen Fällen kann ein transparenter Proxy verwendet werden. woher sie kommen.5. ob sie sich dessen bewusst sind.2 Firewall-Konfiguration mit SuSEfirewall2 Leiten Sie nun alle eingehenden Anforderungen über die Firewall mithilfe einer PortWeiterleitungsregel an den Squid-Port um. ohne dass bekannt ist. Das Prinzip ist extrem einfach: Der Proxy fängt die Anforderungen des Webbrowsers ab und beantwortet sie.5. sodass der Webbrowser die angeforderten Seiten erhält. unabhängig davon.conf Folgende Optionen müssen in der Datei /etc/squid/squid. Verwenden Sie dazu das eingeschlossene Werkzeug SuSEfirewall2 (in „Konfiguration mit YaST“ (S. Wie der Name schon andeutet. die vorhandenen Clients sollten jedoch ihre alte Konfiguration beibehalten. 116) beschrieben). Die Konfigurationsdatei besteht aus gut dokumentierten Einträgen. • Der Proxy in einem Netzwerk wird verschoben. 29. verläuft der gesamte Prozess transparent. Der Proxyserver Squid 579 .• Alle Clients müssen einen Proxy verwenden. Die Konfigurationsdatei dieses Programms finden Sie in /etc/sysconfig/ SuSEfirewall2.conf aktiviert werden.

Dieser Dienst wird häufig verwendet. das auf das Internet verweist: FW_DEV_EXT="eth1" • Gerät.0/0. 3) original destination port and 4) local port to redirect the traffic to. A redirecting rule consists of 1) source IP/net.1. wie beispielsweise dem Internet.1.g.Um einen transparenten Proxy festzulegen.80.80.0. auf die ein Zugriff von nicht verbürgten (externen) Netzwerken. "10.8080" 580 Referenz .20.172.1 Firewall-Konfiguration: Option 15 # # # # # # # # # # # # # # 15. e. or transparently redirect incoming Web traffic to a secure Web server.3128 0/0. separated by a colon. Choice: leave empty or use the following explained syntax of redirecting rules. Domänennamen-Dienst).0. auf die vom sicheren (internen) Netzwerk aus zugegriffen wird (sowohl über TCP als auch über UDP): FW_SERVICES_INT_TCP="domain www 3128" FW_SERVICES_INT_UDP=„domain“ Dies ermöglicht den Zugriff auf Webdienste und Squid (Standardport: 3128). Der Dienst „domain“ steht für DNS (Domain Name Service. das auf das Netzwerk verweist: FW_DEV_INT="eth0" Ports und Dienste (siehe /etc/services) auf der Firewall definieren. Andernfalls nehmen Sie einfach die oben stehenden Einträge heraus und setzten Sie die folgende Option auf no: FW_SERVICE_DNS="yes" Die wichtigste Option ist Option Nummer 15: Beispiel 29. In diesem Beispiel werden nur Webdienste für den Außenbereich angeboten: FW_SERVICES_EXT_TCP="www" Definieren Sie Ports und Dienste (siehe /etc/services) auf der Firewall. müssen Sie mehrere Firewall-Optionen konfigurieren: • Gerät.) Which accesses to services should be redirected to a local port on the firewall machine? This can be used to force all internal users to surf via your Squid proxy. 2) destination IP/net. separated with spaces. erfolgt.0/8.

29.168.21. an die diese Clients ihre Anforderungen senden. müssen Sie die Squid-Protokolle in /var/log/squid/access. Dienste hinzugefügt werden sollen.168. Um zu überprüfen.0. müssen Sie eine Portabsuche auf dem Computer von einem beliebigen Computer außerhalb Ihres Netzwerks aus durchführen.0/0. Der Proxyserver Squid 581 .3128" Um die Firewall mit der neuen Konfiguration zu starten.168. die auf die ProxyFirewall zugreifen. HTTPS oder SSL (Port 443). ob alles ordnungsgemäß funktioniert.80.0. „Starten von Squid“ (S.168. Dieser Platzhalter bedeutet „überallhin“. Der Eintrag START_FW muss auf „yes“ gesetzt werden. müssen diese im entsprechenden Eintrag durch ein Leerzeichen getrennt sein.Die oben angegebenen Kommentare geben die zu verwendende Syntax an. Geben Sie zuerst die IP-Adresse und die Netzmaske der internen Netzwerke ein.0/0. Starten Sie Squid. Um sicherzustellen.6 cachemgr. Wenn mehrere Netzwerke bzw. müssen Sie einen Eintrag in der Datei /etc/sysconfig/SuSEfirewall2 ändern. wie in Abschnitt 29. müssen Anforderungen von anderen Ports an den Proxy umgeleitet werden.21. beispielsweise FTP (Port 21).log überprüfen. Außerdem bietet er eine bequemere Methode zur Verwaltung des Cache und zur Anzeige der Statistiken ohne Anmeldung beim Server. In diesem Beispiel werden Webdienste (Port 80) an den Proxy-Port (Port 3128) umgeleitet. und schließlich den Port. Da Squid andere Protokolle als HTTP unterstützt.0/16.3.0/16.cgi Der Cache-Manager (cachemgr.3128 192. dass alle Ports korrekt konfiguriert sind.80. Nur die Webdienste (Port 80) sollten verfügbar sein. an den diese Anforderungen gesendet werden.0/0.0. Geben Sie als Zweites die IP-Adresse und die Netzmaske ein. Geben Sie anschließend den ursprünglichen Port ein. FW_REDIRECT_TCP="192.cgi) ist ein CGI-Dienstprogramm für die Anzeige der Statistiken zur Arbeitsspeichernutzung eines laufenden Squid-Prozesses. Die Befehlssyntax für das Absuchen der Ports mit nmap lautet nmap -O IP_address.0.0/16. Geben Sie bei Webbrowsern die Netzwerke 0/0 an. 570) gezeigt. an den alle diese Anforderungen umgeleitet werden.0/16.3128" FW_REDIRECT_UDP="192.0/0.3128 192.

über das cache_objectProtokoll mit Squid zu kommunizieren.255.2. die für den Cache-Manager erforderlich sind. Der HTTP-Server Apache (S. um Apache mit den Standardeinstellungen von SUSE Linux zu starten. ob Apache bereits ausgeführt wird.cgi in das Apache-Verzeichnis cgi-bin zu kopieren: cp /usr/share/doc/packages/squid/scripts/cachemgr. Andernfalls geben Sie rcapache start ein. 583) beschrieben. Anschließend verwenden die http_access-Optionen diese ACLs. müssen Sie eine zusätzliche ACL aufnehmen.29. Konfigurieren Sie Apache. Wenn eine Meldung der folgenden Art angezeigt wird: Checking for service httpd: OK Server uptime: 1 day 18 hours 29 minutes 39 seconds wird Apache auf dem Rechner angezeigt.conf Es gibt einige Standardeinstellungen in der Originaldatei.6. Zuerst werden zwei ACLs definiert.255 Folgende Regeln gewähren Apache Zugriffsrechte auf Squid: http_access allow manager localhost http_access deny manager Diese Regeln setzen voraus. die Datei cachemgr. um Zugriff vom CGI-Script auf Squid zu gewähren.1 Setup Zunächst muss ein Webserver in Ihrem System ausgeführt werden. Um zu überprüfen. dass der Webserver und Squid auf demselben Computer ausgeführt werden.2 Cache-Manager-ACLs in /etc/squid/squid. wie in Beispiel 29.0. Der letzte Schritt besteht darin.0.cgi /srv/www/cgi-bin/ 29.255. geben Sie als root den Befehl rcapache status ein. Wenn die Kommunikation zwischen Cache-Manager und Squid von dem Webserver auf einem anderen Computer ihren Ausgang nimmt.1/255. 485) beschrieben. wie in Kapitel 26. da der Cache-Manager versucht. 582 Referenz . Die erste ACL ist die wichtigste. „Zugriffsregeln“ (S.6. acl manager proto cache_object acl localhost src 127.

wie das Schließen des Cache über entfernten Zugriff oder die Anzeige weiterer Informationen zum Cache.255 acl webserver src 192.org.example. Konfigurieren Sie hierfür den Eintrag cachemgr_passwd mit einem Passwort für den Manager und der Liste der anzuzeigenden Optionen.cgi.7 squidGuard Dieser Abschnitt dient nicht zur Erläuterung einer umfassenden Konfiguration von squidGuard.3 Anzeige der Statistiken Rufen Sie die entsprechende Website auf: http://webserver.0.org/ cgi-bin/cachemgr. Diese Liste wird als Teil des Eintragskommentars in /etc/squid/squid. „Zugriffsregeln“ (S.0.2 Zugriffsregeln acl manager proto cache_object acl localhost src 127. Starten Sie Squid nach jeder Änderung der Konfigurationsdatei neu.html.3 Zugriffsregeln http_access allow manager localhost http_access allow manager webserver http_access deny manager Konfigurieren Sie ein Passwort für den Manager für den Zugriff auf weitere Optionen. 29. 29.squidguard. Der Proxyserver Squid 583 .255.Beispiel 29.255 # webserver IP Fügen Sie dann die Regeln in Beispiel 29. 583) hinzu. Verwenden Sie hierfür einfach rcsquid reload. um den Zugriff vom Webserver zu gestatten.squid-cache.1.255. Weitere Details für die einzelnen.6.conf angezeigt.7/255. Drücken Sie continue (Fortsetzen) und blättern Sie durch die verschiedenen Statistiken.255.255. Beispiel 29. vom Cache-Manager angezeigten Einträge finden Sie in den Squid FAQ unter http://www . Er soll lediglich eine Einführung und einige Hinweise für die Verwendung bieten: Eine Behandlung tiefer gehender Konfigurationsfragen finden Sie auf der squidGuard-Website unter http://www.168.3.1/255.org/Doc/FAQ/FAQ-9.

Wochentag. • Bearbeiten. um Squid umzuleiten. Konfigurationsbeispiele finden Sie unter http://www. Vor der Verwendung muss squidGuard zunächst installiert werden.squidguard. wie JavaScript oder VBscript. Umleitungs.conf an. URLs für einige Benutzer. • Blockieren des Zugriffs bestimmter Benutzer auf URLs. URLs.squidGuard ist ein kostenloses (GPL). Erstellen Sie als Nächstes eine Dummy-Seite mit „Zugriff verweigert“ oder eine mehr oder weniger komplexe CGI-Seite. flexibles und schnelles Filter-. wenn der Client eine Website anfordert. Filtern oder Zensieren von Text in Dokumenten. Später können Sie mit komplizierteren Konfigurationseinstellungen experimentieren.org/config/. Filtern oder Zensieren von in HTML eingebetteten Skriptsprachen. • Verwenden verschiedener Zugriffsregeln je nach Tageszeit. • Umleiten von Bannern in eine leere GIF-Datei. Die Verwendung von Apache wird dringend empfohlen. Geben Sie eine Datei mit der Minimalkonfiguration als /etc/squidguard. • Verwenden verschiedener Regeln für verschiedene Benutzergruppen. • Umleiten blockierter URLs an eine „intelligente“ CGI-basierte Informationsseite. • Umleiten nicht registrierter Benutzer zu einem Registrierungsformular. 584 Referenz . Damit können Sie mehrere Zugriffsregeln mit verschiedenen Einschränkungen für verschiedene Benutzergruppen in einem SquidCache erstellen. die auf der schwarzen Liste steht. squidGuard verwendet die Standard-Umleitungsschnittstelle von Squid und bietet folgende Möglichkeiten: • Einschränken des Webzugriffs für einige Benutzer auf eine Liste akzeptierter oder gut bekannter Webserver bzw. die reguläre Ausdrücke oder Wörter aus einer entsprechenden Liste enthalten. • Blockieren des Zugriffs auf einige gelistete oder in einer Blacklist stehende Webserver bzw. Datum usw.und Zugriffssteuerungs-Plugin für Squid. squidGuard und Squid können nicht zu folgenden Zwecken eingesetzt werden: • Bearbeiten.

mehr als vier Prozesse festzulegen.conf: redirect_program /usr/bin/squidGuard Eine weitere Option. 5.Konfigurieren Sie nun Squid für die Verwendung von squidGuard. mit dem Berichte über die Cache-Aktivität im ASCIIoder HTML-Format erstellt werden können. die auf dem Computer ausgeführt werden. dient zur Konfiguration der Anzahl der „Umleitungs“-Prozesse (in diesem Fall squidGuard-Prozesse).log. Im Folgenden finden Sie einige Optionen des Programms: -a Ausgabe aller verfügbaren Berichte -w Ausgabe als HTML-Bericht Der Proxyserver Squid 585 . Das Programm ist recht benutzerfreundlich.900 Domänen und 7. 29. squidGuard ist schnell genug. redirect_children 4 Lassen Sie Squid abschließend die neue Konfiguration laden. Es arbeitet mit nativen SquidZugriffsprotokolldateien.8 Erstellung von Cache-Berichten mit Calamaris Calamaris ist ein Perl-Skript. Verwenden Sie folgenden Eintrag in der Datei /etc/squid/squid.880 URLs (insgesamt 13. dass die Protokolldateien chronologisch (die ältesten Dateien zuerst) geordnet sind. Die Calamaris-Homepage befindet sich unter http:// Calamaris.780) können 100. da die Zuordnung dieser Prozesse übermäßig viel Speicher verbrauchen würde. Melden Sie sich als root an und geben Sie cat access. um mit einer große Anzahl von Anforderungen umgehen zu können: bei einem Pentium-Prozessor mit 500 MHz.de/.files | calamaris Optionen > reportfile ein.Cord. Beim Piping mehrerer Protokolldateien ist darauf zu achten. redirect_children. Daher wird nicht empfohlen.000 Anforderungen innerhalb von 10 Sekunden verarbeitet werden. indem Sie rcsquid reload ausführen. Testen Sie nun Ihre Einstellungen mit einem Browser.

Hier finden Sie das Squid-Benutzerhandbuch und eine umfassende Sammlung mit FAQ zu Squid.log.org/mail-archive/squid-users/.orgMailinglisten zu Squid verfügbar.squid-cache.gz.squid-cache. Typisches Beispiel: cat access. Nach der Installation ist eine kleine HOWTO-Datei zu transparenten Proxies in howtoenh verfügbar: /usr/share/doc/howto/en/txt/TransparentProxy .2 access. 586 Referenz .9 Weitere Informationen Besuchen Sie die Squid-Homepage unter http://www.log | calamaris -a -w \ > /usr/local/httpd/htdocs/Squid/squidreport.sourceforge.org/. Zur Anzeige des Berichts ist Apache erforderlich. Ein weiteres leistungsstarkes Werkzeug zum Erstellen von Berichten ist SARG (Squid Analysis Report Generator). 29. Weitere Informationen hierzu finden Sie unter: http:// sarg.log. Außerdem sind Sie unter squid-users@squid-cache.-l Einschließen einer Meldung oder eines Logos in den Berichtsheader Weitere Informationen zu den verschiedenen Optionen finden Sie auf der Manualpage des Programms (man calamaris).1 access. Das zugehörige Archiv finden Sie unter http://www .net/.html Dadurch wird der Bericht im Verzeichnis des Webservers gespeichert.

Mobilität .Teil V.

.

Mobile Computernutzung mit Linux Die mobile Computernutzung wird meist mit Notebooks. PDAs. dass hier Kriterien wie Austauschbarkeit. 30. Ebenso zählen zahlreiche Software-Komponenten zu den Bestandteilen mobiler Computerszenarios und einige Anwendungen sind sogar speziell für die mobile Verwendung vorgesehen.und Modemkarten sowie externe Festplatten. ISDN. Die Implementierung der Unterstützung für diese Hardware. Mobiltelefonen und dem Datenaustausch zwischen diesen Geräten in Verbindung gebracht.1 Energieeinsparung Durch die Integration von energieoptimierten Systemkomponenten bei der Herstellung von Notebooks erhöht sich die Eignung der Geräte für die Verwendung ohne Zugang Mobile Computernutzung mit Linux 589 . die für die Steuerung von PCMCIA verfügbare Software und die Möglichkeiten zur Fehlersuche bei etwaigen Problemen werden in Kapitel 31. angeschlossen sein. An Notebooks oder Desktop-Systeme können aber auch mobile Hardware-Komponenten.1. wie externe Festplatten. Netzwerkschnittstellenkarten. 601) beschrieben. Die Hersteller von mobiler Hardware haben den PCMCIA-Standard (Personal Computer Memory Card International Association) entwickelt. Platzbedarf und Stromverbrauch wichtige Eigenschaften sind. 30 30.1 Notebooks Die Hardware von Notebooks unterscheidet sich von der eines normalen Desktopsystems. PCMCIA (S. Flash-Laufwerke und Digitalkameras. Dieser Standard bezieht sich auf Speicherkarten. Dies liegt daran. die während der Konfiguration zu berücksichtigenden Aspekte.

2 Integration in unterschiedlichen Betriebsumgebungen Ihr System muss sich an unterschiedliche Betriebsumgebungen anpassen können.zum Stromnetz. SUSE Linux übernimmt diese Konfiguration für Sie. nicht verwendete PCMCIA-Karten usw. Hotplug-fähiger Zubehörteile (USB-CD-ROM. 590 Referenz . die den Energieverbrauch eines Notebooks beeinflussen und sich auf die Betriebsdauer bei Akkubetrieb auswirken.) • Ausschalten der Festplatte im Ruhezustand Detaillierte Hintergrundinformationen zur Energieverwaltung unter SUSE Linux und zum Betrieb des YaST-Energieverwaltungsmoduls finden Sie in Kapitel 33. In der folgenden Liste werden die Möglichkeiten zur Energieeinsparung in absteigender Reihenfolge ihrer Wirksamkeit angegeben: • Drosselung der CPU-Geschwindigkeit • Ausschalten der Anzeigebeleuchtung während Pausen • Manuelle Anpassung der Anzeigebeleuchtung • Ausstecken nicht verwendeter. Energieverwaltung (S. Ihr Beitrag zur Energieeinsparung ist mindestens so wichtig wie der des Betriebssystems. externe Maus. wenn es für mobile Computernutzung verwendet werden soll. Viele Dienste hängen von der Umgebung ab und die zu Grunde liegenden Clients müssen neu konfiguriert werden.1. 30. SUSE Linux unterstützt verschiedene Methoden. 627).

Namensauflösung. das zwischen einem kleinen Heimnetzwerk zu Hause und einem Firmennetzwerk hin und her pendelt. Mobile Computernutzung mit Linux 591 . müssen die verschiedenen Anzeigekonfigurationen verfügbar sein.Abbildung 30. X Wenn das Notebook zeitweise an einen Beamer oder einen externen Monitor angeschlossen ist. E-Mail und Proxys Wie beim Drucken muss die Liste der entsprechenden Server immer aktuell sein.1 Integrieren eines Notebooks in ein Netzwerk Drucken ? ? Mail ? ? ? ? ? ? Proxy X-Konfiguration Netzwerk Bei einem Notebook beispielsweise. Internet-Konnektivität und Konnektivität mit anderen Netzwerken. Drucken Die aktuelle Datenbank der verfügbaren Drucker und ein verfügbarer Druckserver (abhängig vom Netzwerk) müssen vorhanden sein. sind folgende Dienste betroffen: Netzwerk Dazu gehören IP-Adresszuweisung.

NetworkManager NetworkManager wurde speziell für die mobile Verbindung von Notebooks mit Netzwerken entwickelt. DNS oder DHCP).SUSE Linux bietet verschiedene Möglichkeiten zur Integration eines Notebooks in bestehende Betriebsumgebungen: SCPM SCPM (System Configuration Profile Management. Die Anwendung benötigt das Root-Passwort. bevor umgeschaltet werden kann. Nein Nein 592 Referenz . Firmennetzwerk) eingesetzt wird. Sie sind nützlich. Informationen über SCPM finden Sie in Kapitel 32. Der Computer wird mit verschiedenen Netzwerken verbunden. Verwaltung der Systemkonfigurationsprofile) ermöglicht die Speicherung beliebiger Konfigurationszustände eines Systems in einer Art „Snapshot“. Profile können für verschiedene Situationen erstellt werden. wenn ein System in unterschiedlichen Umgebungen (Heimnetzwerk. NetworkManager unterstützt WEP. Beide Desktop-Umgebungen von SUSE Linux (GNOME und KDE) bieten ein Front-End zu NetworkManager. die als Profil bezeichnet wird. Der Computer hat eine statische IP-Adresse.und WPA-PSK-Verschlüsselung in WLANs mit Einwählverbindungen (mit smpppd).1 Anwendungsbeispiele für NetworkManager Verwendung von NetworkManager Ja Ja Computer Der Computer ist ein Notebook. Der Computer stellt Netzwerkdienste bereit (z. B. 611). Tabelle 30. Verwaltung der Systemkonfigurationsprofile (S. In KDE können Sie für den Wechsel zwischen Profilen das Kicker-Applet „Profil-Auswahl“ verwenden. Ein Umschalten zwischen den Profilen ist jederzeit möglich. Dieses Verwaltungsprogramm ermöglicht einen einfachen und automatischen Wechsel zwischen verschiedenen Netzwerkumgebungen oder Netzwerktypen wie WLAN und Ethernet.

Bei Arbeit mit Wechselstrom wird ein kleines Steckersymbol angezeigt. indem es einen Großteil der Konfiguration automatisiert.Verwenden Sie die Werkzeuge von YaST zur Konfiguration der Netzwerkverbindungen. die SLP unterstützen. Anwendungen. Bei Arbeit mit Akkustrom wird als Symbol eine Batterie angezeigt. wodurch sich die Suche nach einer geeigneten Installationsquelle erübrigt. die von dedizierter Software abgedeckt werden: Systemüberwachung (insbesondere der Ladezustand des Akkus).1. SLP-Dienste im Netzwerk (S. die SUSE Linux für jede Aufgabe bietet. SLP sendet die Verfügbarkeit eines bestimmten Diensttyps an alle Clients in einem lokalen Netzwerk. wenn die Netzwerkkonfiguration nicht automatisch von NetworkManager übernommen werden soll. 30. SLP kann sogar für die Installation eines Systems verwendet werden. Das Symbol wird entsprechend der Art der Energieversorgung angepasst. können die von SLP weitergeleiteten Informationen verarbeiten und automatisch konfiguriert werden. SLP Das Service Location Protocol (SLP) vereinfacht die Verbindung eines Notebooks mit einem bestehenden Netzwerk. Datensysnchronisation und drahtlose Kommunikation mit Peripheriegeräten und dem Internet. 395). Das zugehörige Menü öffnet das YaST-Modul für die Energieverwaltung nach der Anforderung des Stammpassworts. In den folgenden Abschnitten werden die wichtigsten Anwendungen behandelt.3 Software-Optionen Es gibt verschiedene Sonderaufgabenbereiche bei der mobilen Verwendung. das den Zustand des Akkus in der Systemsteuerung anzeigt. Der Schwerpunkt von SCPM liegt auf der Aktivierung und Aufrechterhaltung reproduzierbarer Systembedingungen. Damit können Sie das Verhalten des Systems bei verschiedenen Arten der Energieversorgung festlegen. Ohne SLP benötigt der Administrator eines Notebooks normalerweise detaillierte Kenntnisse über die im Netzwerk verfügbaren Dienste. Weitere Informationen zu SLP finden Sie unter Kapitel 19. Systemüberwachung SUSE Linux bietet zwei KDE-Werkzeuge zur Systemüberwachung: KPowersave KPowersave ist ein Applet. SLP erleichtert die Konfiguration eines vernetzten Computers erheblich. Weitere Informationen über die EnergieMobile Computernutzung mit Linux 593 .

Die Darstellung und Filterung der gesammelten Daten kann benutzerdefiniert angepasst werden.verwaltung und die entsprechenden YaST-Module finden Sie in Kapitel 33. Energieverwaltung (S. KSysguard weist Monitore für ACPI (Akkustatus). Partitionierung und Arbeitsspeicherauslastung. Weitere Informationen zu diesem Programm finden Sie in der zugehörigen integrierten Hilfefunktion bzw. Netzwerk. Abbildung 30. CPU-Last. Außerdem kann diese Anwendung alle Systemprozesse überwachen und anzeigen. verschiedene Systemparameter auf verschiedenen Datenseiten zu überwachen oder die Daten von mehreren Computern parallel über das Netzwerk zu sammeln. KSysguard kann außerdem als Daemon auf Computern ohne KDE-Umgebung ausgeführt werden. der vom Netzwerk getrennt ist.2 Überwachen des Akkuzustands mit KSysguard Auf dem GNOME-Desktop verwenden Sie zur Systemüberwachung das KontrollleistenApplet GNOME ACPI und die Anwendung Systemmonitor. 627). die alle messbaren Parameter des Systems in eine einzige Überwachungsumgebung sammelt. auf den SUSE-Hilfeseiten. Datensynchronisierung Beim ständigen Wechsel zwischen der Arbeit auf einem mobilen Computer. Dazu 594 Referenz . und der Arbeit an einer vernetzten Arbeitsstation in einem Büro müssen die verarbeiteten Daten stets auf allen Instanzen synchronisiert sein. Es ist möglich. KSysguard KSysguard ist eine unabhängige Anwendung.

welcher Zugriffspunkt die beste Verbindung aufweist. Synchronisieren von Dateien und Verzeichnissen Es gibt mehrere Dienstprogramme. Ein mobiler Benutzer kann zwischen verschiedenen Zugriffspunkten umschalten. Einzelne Computer können untereinander eine Verbindung herstellen und so ein unabhängiges drahtloses Netzwerk bilden oder auf das Internet zugreifen. „Wireless LAN“ (S. dass nach Abschluss der Synchronisierung alle Nachrichten mit den zugehörigen Statusinformationen verfügbar sind. Die Lösung sieht für beide Fälle folgendermaßen aus: Synchronisieren von E-Mail Verwenden Sie ein IMAP-Konto zum Speichern der E-Mails im Firmennetzwerk. 655). Der Zugriff auf die E-Mails von der Arbeitsstation aus erfolgt dann über einen beliebigen. 531).gehören E-Mail-Ordner. Mobile Computernutzung mit Linux 595 . wie Mozilla Thunderbird Mail.1. Dadurch wird gewährleistet. Peripheriegeräten. Verzeichnisse und einzelne Dateien. um zuverlässige Rückmeldungen über nicht gesendete Mail zu erhalten. Dateisynchronisierung (S. Wie bei der Mobiltelefonie steht WLAN-Benutzern ein großes Netzwerk zur Verfügung. dass für Sent Messages (Gesendete Nachrichten) immer derselbe Ordner aufgerufen wird. Informationen über WLAN finden Sie in Abschnitt 34. wie unter Anwendungen beschrieben. Der E-MailClient muss so konfiguriert sein. nicht verbundenen IMAP-fähigen E-Mail-Client. Detaillierte Informationen finden Sie in Kapitel 27. je nachdem. die sowohl für die Arbeit unterwegs als auch im Büro vorliegen müssen. Als Zugriffspunkte bezeichnete Geräte können als Basisstationen für WLAN-fähige Geräte und als Zwischengeräte für den Zugriff auf das Internet fungieren. Drahtlose Kommunikation Neben einem Anschluss an ein Heim. Evolution oder KMail. ohne dass sie für den Zugriff an einen bestimmten Standort gebunden sind. Mobiltelefonen oder PDAs verbunden sein. Verwenden Sie zum Senden von Nachrichten einen im Mail-Client implementierten SMTP-Server anstatt des systemweiten MTAPostfix oder Sendmail.oder Firmennetzwerk über ein Kabel kann ein Notebook auch drahtlos mit anderen Computern. Linux unterstützt drei Typen von drahtloser Kommunikation: WLAN WLAN weist die größte Reichweite dieser drahtlosen Technologien auf und ist daher als einziges für den Betrieb großer und zuweilen sogar räumlich geteilter Netzwerke geeignet. die sich für die Synchronisierung von Daten zwischen Notebook und Arbeitsstation eignen.

Eine mögliche Anwendung von IrDA ist die Übertragung einer Datei von einem Notebook auf ein Mobiltelefon. ebenso wie IrDA. „Infrarot-Datenübertragung“ (S. wie Wände. Es kann. Sichern der Daten auf dem System Wichtige Daten sollten nicht nur während der Übertragung. um entfernte Systeme über ein Netzwerk zu verbinden. Im Einzelhandel ist verschiedenes Sicherheitszubehör. „Bluetooth“ (S. Die kurze Entfernung zwischen Notebook und Mobiltelefon wird mit IrDa überbrückt. 30. verwendet. zugehörige Anwendungen und seine Konfiguration finden Sie in Abschnitt 34. wie beispielsweise Ketten. Beide Kommunikationspartner müssen sich in Sichtweite voneinander befinden. verfügbar. für die Kommunikation zwischen Computern (Notebooks) und PDAs oder Mobiltelefonen verwendet werden. können nicht überwunden werden. Ein weiterer Anwendungsbereich von IrDA ist die drahtlose Übertragung von Druckaufträgen im Büro.1. Mögliche Sicherheitsmaßnahmen können in folgenden Bereichen ergriffen werden: Schutz gegen Diebstahl Schützen Sie Ihr System stets nach Möglichkeit gegen Diebstahl. Dies gewährleistet die Sicherheit der Daten im Falle eines Diebstahls. Hindernisse. sondern auch auf der Festplatte verschlüsselt sein. Die Erstellung einer verschlüsselten Partition mit SUSE Linux 596 Referenz . Der Langstreckentransport der Datei zum Empfänger erfolgt über das Mobilfunknetz. Des Weiteren wird Bluetooth zum Anschluss drahtloser Systemkomponenten.3. wie Wände.2. IrDA IrDA ist die drahtlose Technologie mit der kürzesten Reichweite. 680).4 Datensicherheit Idealerweise schützen Sie die Daten auf Ihrem Notebook mehrfach gegen unbefugten Zugriff. Außerdem kann es zur Verbindung mehrerer Computer innerhalb des Sichtbereichs verwendet werden. Die Reichweite dieser Technologie reicht jedoch nicht aus. WLAN ist die optimale Technologie für die Kommunikation durch physische Hindernisse. Weitere Informationen über Bluetooth. beispielsweise Tastatur und Maus.Bluetooth Bluetooth weist das breiteste Anwendungsspektrum von allen drahtlosen Technologien auf. 668). Weitere Informationen zu IrDA finden Sie in Abschnitt 34.

Dem Benutzer bleibt das manuelle Einhängen und Aushängen. nun völlig erspart. Um einer Festplatte einen anderen Namen zu geben als den vom System zugeteilten. Sie können hier Ordner und Dateien erstellen. Netzwerksicherheit Jegliche Datenübertragung sollte gesichert werden.5. Externe Festplatten (USB und Firewire) Sobald eine externe Festplatte ordnungsgemäß vom System erkannt wurde.oder USB-Festplatten. sobald kein Programm mehr darauf zugreift. WICHTIG: Datensicherheit und Suspend to Disk Verschlüsselte Partitionen werden bei Suspend to Disk nicht ausgehängt. Durch Klicken auf das Symbol wird der Inhalt des Laufwerks angezeigt. Linux und Netzwerke betreffende Sicherheitsrisiken sind in Abschnitt 4. „Verschlüsseln von Partitionen und Dateien“ (S. USB-Flash-Laufwerken oder Digitalkameras. Alle Geräte werden automatisch über Hotplug erkannt und konfiguriert. die Hardware zu stehlen und einen Resume-Vorgang für die Festplatte durchführt. dass die Geräte auf den entsprechenden Speicherorten im Dateisystem eingehängt werden. 127) beschrieben. gleichgültig auf welche Weise sie erfolgt. Daher sind alle Daten auf diesen Partitionen für jeden verfügbar. wird das zugehörige Symbol in My Computer (Arbeitsplatz) (KDE) bzw. Drahtlose Kommunikation (S.3. 655). wählen Sie das entsprechende Menüelement aus dem Menü aus.wird in Abschnitt 4. sobald sie mit dem System über die entsprechende Schnittstelle verbunden sind. Der Ausdruck mobiles Speichergerät bezieht sich auf jegliche Art von Firewire. das beim Rechtsklicken auf das Symbol Mobile Computernutzung mit Linux 597 . 140) beschrieben. Computer (Computer) (GNOME) in der Liste der eingehängten Laufwerke aufgeführt. 30. Allgemeine. bearbeiten und löschen.2 Mobile Hardware SUSE Linux unterstützt die automatische Erkennung mobiler Speichergeräte über Firewire (IEEE 1394) oder USB. „Sicherheit und Vertraulichkeit“ (S. das bei früheren Versionen von SUSE Linux erforderlich war. Durch subfs und submount wird gewährleistet. Sicherheitsmaßnahmen für drahtlose Netzwerke finden Sie im Kapitel 34. Ein Gerät kann einfach getrennt werden. dem es gelingt.

Die Konfiguration seitens Linux wird in Abschnitt 34. Ebenso können Sie die Einträge im Dateimanager umbenennen. Termine usw. Inc.3 Mobiltelefone und PDAs Ein Desktopsystem oder Notebook kann über Bluetooth oder IrDA mit einem Mobiltelefon kommunizieren. 598 Referenz . 595) erwähnt. bleibt davon unbeeinflusst. Der Deskriptor. Mit KDE können Sie die Bilder unter der URL camera:/ lesen und darauf zugreifen. Sobald die Unterstützung für Palm Pilots konfiguriert wurde. andere nur eines von beiden.3. Die erstmalige Verbindung mit dem Gerät erfolgt in beiden Fällen problemlos mit der Unterstützung durch einen Assistenten. „Bluetooth“ (S. Die Konfiguration dieser Protokolle auf den Mobiltelefonen selbst wird in den entsprechenden Handbüchern beschrieben. Die Namensänderung wird nur im Dateimanager angezeigt.).geöffnet wird. Ein einfaches Dienstprogramm zur Bildbearbeitung und -verwaltung ist f-spot. 668) und Abschnitt 34. „Infrarot-Datenübertragung“ (S.. Einige Modelle unterstützen beide Protokolle. 680) beschrieben. ist bereits in Evolution und Kontact integriert. Weitere Einzelheiten zu Digitalkameras und Bildverwaltung finden Sie in Kapitel Digitalkameras und Linux (↑Anwendungen). Unterstützung für die Synchronisierung mit Handheld-Geräten von Palm. Erweiterte Fotobearbeitung ist über GIMP möglich. USB-Flash-Laufwerke Diese Geräte werden vom System genau wie externe Festplatten behandelt. welche Art von Daten synchronisiert werden soll (Adressen. 30.2. Digitalkameras (USB und Firewire) Vom Gerät erkannte Digitalkameras werden ebenfalls im Dateimanager-Überblick als externe Laufwerke angezeigt. Diese Bilder können dann mithilfe von Digikam oder GIMP verarbeitet werden. durch den das Gerät in /media eingehängt wurde. Beide GroupwareAnwendungen werden unter Anwendungen beschrieben. müssen Sie bestimmen. Bei der Verwendung von GNOME zeigt Nautilus die Bilder in ihrem eigenen Ordner an. Die Anwendungsbereiche für die beiden Protokolle und die entsprechende erweiterte Dokumentation wurde bereits in „Drahtlose Kommunikation“ (S.

Mobiltelefonen und anderer mobiler Hardware. Mobile Computernutzung mit Linux 599 .com/archive/suse-laptop/. Hier finden Sie Informationen zu Notebooks und Handhelds. Bei Problemen mit der Engergieverwaltung von SUSE Linux bei Notebooks sollten Sie die Datei README unter /usr/share/doc/packages/powersave lesen.4 Weitere Informationen Die zentrale Informationsquelle für alle Fragen in Bezug auf mobile Geräte und Linux ist http://tuxmobil.Das in Kontact integrierte Programm KPilot steht auch als unabhängiges Dienstprogramm zur Verfügung.und Software-Aspekten von Notebooks. doch der größte Teil der archivierten Informationen liegt in deutscher Sprache vor. Für die Synchronisierung von Adressdaten steht außerdem das Programm KitchenSync zur Verfügung.linux-on-laptops.com/. die sich mit dem Thema Notebooks befasst. Einen ähnlichen Ansatz wie den unter http://tuxmobil.org/ finden Sie auch unterhttp://www. Siehe http://lists. SUSE unterhält eine deutschsprachige Mailingliste. In dieser Liste diskutieren Benutzer alle Aspekte der mobilen Computernutzung mit SUSE Linux. Einige Beiträge sind auf Englisch. Dieses Verzeichnis enthält häufig kurz vor Veröffentlichung eingegangene Rückmeldungen von Testern und Entwicklern und bietet so wertvolle Hinweise zur Problemlösung. PDAs. 30.org/. Diese Methode wird unter Anwendungen beschrieben. Verschiedene Bereiche dieser Website befassen sich mit den Hardware.suse.

.

ISA-Karte) ein. MMC. Beispiele: • Ethernet. CompactFlash. 602). PCMCIA 601 . z. Wenn ein Eingreifen des Benutzers erforderlich ist. die PC Memory Card International Association.) • Speicherkartenadapter (SD. verwenden Sie den pccardctl-Befehl. PCMCIA-Karten werden hauptsächlich auf mobilen Computern zu verschiedenen Zwecken genutzt. später auch CardBus-Karten (die einen 32-Bit-Bus verwenden). „Steuern der PCMCIA-Karten mithilfe von pccardctl“ (S. obwohl dem Begriff die Organisation zugrunde liegt.2.und Wireless LAN-Adapter • Bluetooth-Karten • Speicherkarten (Flash. Genaue Informationen zum pccardctlBefehl erhalten Sie in Abschnitt 31. Linux schließt zudem Werkzeuge für die PCMCIA-Verwaltung ein. Hintergrundinformationen zu PCMCIA erhalten Sie in Abschnitt 31. B.PCMCIA 31 PCMCIA wird oft im Zusammenhang mit Hardware an sich verwendet. „PCMCIA im Detail“ (S. SmartMedia. MemoryStick) • Modems Die Kartenverwaltung wird zum Großteil im Hintergrund von udev und hotplug ausgeführt. SRAM usw. die die möglichen Typen von PC-Karten standardisiert hat. Anfangs schloss PCMCIA nur PC-Karten (die einen 16-Bit-Bus verwenden. 602). Unter Linux wird eine breite Palette an PCMCIA-Hardware unterstützt.1.

2. Im Folgenden finden Sie eine Liste der wichtigsten pccardctl-Befehle. pccardctl ermöglicht die manuelle Steuerung der Karte für den Fall. pccardctl eject Geben Sie die Karte manuell aus und benachrichtigen Sie die Client-Treiber. dass die Karte soeben eingeschoben wurde. pccardctl suspend Fahren Sie das System herunter und trennen Sie die Stromverbindung für den Socket. Trennen Sie die Stromverbindung für den Socket. 608). Weitere Informationen finden Sie auf der Manualpage zu pccardctl.2 PCMCIA im Detail Folgene Abschnitte beschreiben. die vor dem suspend-Ereignis vorlag.3. wenn Sie auf Probleme mit suspend und resume stoßen. was auf Ihrem Linux-System geschieht. Diese Option ist insbesondere dann hilfreich. wenn ein PCMCIA-Gerät an Ihren Computer angeschlossen wird. benachrichtigen Sie die ClientTreiber.1 Steuern der PCMCIA-Karten mithilfe von pccardctl Die Kartenverwaltung erfolgt normalerweise durch udev und hotplug. ohne dass der Benutzer eingreifen muss. aber geben Sie die Karte nicht aus (Aufheben der Bindung der entsprechenden Module). pccardctl resume pccardctl resume stellen Sie die Stromverbindung für den Socket her und stellen Sie die Konfiguration wieder her. Siehe Beschreibung in Abschnitt 31.31. Für diese Befehle sind Root-Berechtigungen erforderlich: pccardctl insert Falls die Karte nicht automatisch erkannt wurde. dass der automatische Vorgang nicht fehlerfrei durchgeführt wird. dass die Karte ausgegeben wird. 31. „Allgemeine Probleme bei Suspend-Vorgängen mit PCMCIA“ (S. Die Komponenten interagieren 602 Referenz .

und Speicherbereiche für PC-Karten 2. e. Weitere Informationen hierzu finden Sie in Abschnitt 31.1 Bridge-Initialisierung Die meisten PCMCIA-Bridges sind PCI-Geräte und werden als solche behandelt. Schließlich wird die Schnittstelle an sich eingerichtet und kann verwendet werden. Im Folgenden wird der PCMCIA-Initialisierungsvorgang unter Linux grob dargestellt: 1. 31. und löst deren Initialisierung gemäß der Beschreibung in Abschnitt 31. Die PCMCIA-Bridge (oder Socket) muss ordnungsgemäß wie in Abschnitt 31. „Einrichtung der Schnittstelle“ (S. Voraussetzungen: • Passender Treiber für die Bridge • Zusätzliche I/O. „Bridge-Initialisierung“ (S.2.2. Legen Sie den Kartentyp fest. Nachdem die Brigde ordnungsgemäß eingerichtet wurde.und Speicherbereiche und IRQ-Leitungen zu.3. Lösen Sie die Karten. b. 604) aus: a. Der Bridge-Initialisierungsvorgang kann wie folgt zusammengefasst werden: 1. indem Sie eine Bindung mit dem passenden Kartentreiber herstellen. damit das PCMCIAGerät unterstützt wird. Hotplug erstellt ein PCI-Ereignis. 3.2.2. Weisen Sie der Karte E/A. 603) beschrieben eingerichtet werden. c. 606). PCMCIA 603 . erkennt der BridgeTreiber. Geben Sie die richtige Spannung an.untereinander und es müssen viele Anforderungen erfüllt werden.oder Geräteinitialisierung aus. d. dass eine Karte vorhanden ist. Bei einigen Karten muss die Card Information Structure (CIS) hochgeladen werden. „Initialisierung der Karte“ (S.2.1.

Nachdem diese Schritte erfolgreich abgeschlossen wurde. udev ruft /sbin/hwup auf. Anderenfalls ruft /sbin/hwup modprobe mit der vom Kernel bereitgestellten modalias-Zeichenkette auf. Falls die Speicherbereiche in /etc/pcmcia/config.opts angegeben sind.2 Initialisierung der Karte Die Ereignisse. um ein Treibermodul zu laden. wie im folgenden Abschnitt beschrieben. Die Card Services im Kernel überprüfen diese Bereiche. 606) finden Sie Informationen zur Fehlersuche und Behebung dieses Problems. die durch das Einsetzen einer PCMCIA-Karte verursacht werden.opts falsch sind. um den Treiber zu laden. Alle E/A. c. 2.2.und Speicherbereiche. Für sämtliche Ereignisse ruft udev /sbin/hwup auf. Bei CardBus-Karten ist dies ein pci-Ereignis. um /sbin/hwup aufzurufen und das pcmcia-Kernelmodul zu laden. kann dieser Schritt Ihren Computer zum Absturz bringen. Anschließend wird die Karte selbst. b. Der Modulname wird entweder in einer hwcfg*-Datei unter /etc/ sysconfig/hardware oder über den Befehl modprobe modalias angegeben. ist die Bridge vollständig initialisiert.1. „Computer stürzt mit PCMCIA ab“ (S. Die pcmcia_socket-Ereignisse lösen udev aus. In Abschnitt 31. 604 Referenz . Neue hotplug-Ereignisse werden gesendet (eines pro PCMCIA-Socket) Die folgenden Schritte werden ausgelassen. /sbin/hwup überprüft /etc/sysconfig/hardware hinsichtlich einer vorhandenen Gerätekonfiguration. Bei PC-Karten ist dies ein pcmcia-Ereignis. initialisiert. 31.3. Falls eine passende Konfiguration gefunden wird.2. können wie folgt zusammengefasst werden: 1. Ein hotplug-Ereignis tritt ein. die in /etc/pcmcia/config. 4. wenn nur CardBus-Karten verwendet werden: a. um das Treibermodul zu laden. wird diese Konfiguration verwendet. werden dem Socket hinzugefügt. 3.

Falls es sich bei Ihrer Karte um eine PC-Karte handelt. deren IDs dem Kernel bekannt sind. Um dies zu verhindern. die angibt. werden manchmal nicht erkannt. welche Geräte die Treiber behandeln sollen. können Sie Function Matching verwenden. Die Standardeinstellung ist yes. dass die CIS der Karte beschädigt ist. die diese Funktion haben (z. sondern anhand der Funktion der Karte ausgewählt (z. geben Sie die Karte aus und legen Sie sie wieder ein per Soft Eject und Soft Insert). Sie enthält zusätzliche Implementierungsdetails zur Karte. legen Sie für diese Variable no fest. Die Standardeinstellung ist yes. Demzufolge wird der Treiber nicht anhand der ID. damit die Karte vollständig unterstützt wird und fehlerfrei arbeitet: PCMCIA_LOAD_CIS Die Firmware einer PC-Karte wird als CIS (Card Information Structure) bezeichnet. Um die Karten zu unterstützen. die vor dem Booten eingelegt werden. PCMCIA_COLDPLUG_REINSERT Karten. PCMCIA 605 . setzt das System die Einrichtung der Schnittstelle gemäß der Beschreibung im nächsten Abschnitt fort. Um zu deaktivieren. unterstützt werden. falls sich herausstellt. indem Sie PCMCIA_COLDPLUG_REINSERT auf yes setzen. benötigen Sie möglicherweise die folgenden Parameter in /etc/sysconfig/pcmcia. B. deren ID nicht aufgelistet ist. Dieses sucht nach Firmware und lädt diese. Die Standardeinstellung ist no. 4. eine andere CIS von der Festplatte zu laden.3. Um den Funktionsabgleich zu deaktivieren. legen Sie für diese Variable no fest. eine Netzwerkkarte) und wäre für sämtliche eingelegte PC-Karten zuständig. dass nur die Geräte. Netzwerkkarten). Der Gerätetreiber registriert die Schnittstellen. hwup überprüft die Integrität der integrierten CIS der Karte und versucht. Gegebenenfalls löst die Geräteinitialisierung ein Firmware-Hotplug-Ereignis aus. Das bedeutet. PCMCIA_ALLOW_FUNC_MATCH Linux-Gerätetreiber enthalten eine Geräte-ID-Tabelle. B. dass die CIS von der Festplatte geladen wird. Nachdem diese Schritte abgeschlossen wurden.

eindeutig identifizieren. nachdem die Initialisierung erfolgreich abgeschlossen wurde. können Sie den problematischen Schritt oder die Komponente umgehen. 2 Booten Sie das System in einer textbasierten Umgebung und melden Sie sich als „root“ an.1 Computer stürzt mit PCMCIA ab Ihr Computer stürtzt ab.3 Einrichtung der Schnittstelle Je nach Kartentyp werden verschiedene Schnittstellen registriert. Genaue Informationen zu udev und hotplug erhalten Sie in Kapitel 12. 31. indem Sie folgende Optionen an die Bootprompt anfügen: init=3 pcmcia=off sysrq=1 Weitere Informationen zu SysRq erhalten Sie in der Datei /usr/src/linux/ Documentation/sysrq. Weitere Informationen zu diesem Thema finden Sie in PCMCIA README (/usr/share/doc/packages/pcmciautils/README. Die Registrierung der Schnittstelle erfolgt durch die hotplug-Funktion von udev. können Sie den Schritt oder die Komponente. 3 Fügen Sie dem Kernel die passenden PCMCIA-Module hinzu: 606 Referenz .SuSE).3 Fehlerbehebung Im Folgenden finden Sie eine Liste der bekanntesten Probleme. um PCMCIA manuell einzurichten: 1 Vermeiden Sie. 273).txt.3. die gelegentlich mit PCMCIA auftreten.31. wie nachstehend beschrieben. Gerätemanagement über dynamischen Kernel mithilfe von udev (S. manuell ein. um die Fehlersuche zu erleichtern. die den Absturz des Computers verursacht hat. und aktivieren Sie SysRq. Gehen Sie wie folgt vor. Wenn Sie PCMCIA sorgfältig manuell installieren. Sobald die Ursache erkannt wurde. richten Sie den Computer.2. wenn PCMCIA beim Booten gestartet wird. dass PCMCIA beim Booten des Systems gestartet wird. Um die Ursache für den Absturz des Computers zu ermitteln. 31.

Gehen Sie wie folgt vor. 6 Nachdem die Socket-Einrichtung erfolgreich abgeschlossen wurde. Nachdem Sie die passenden Bereiche erfolgreich manuell hinzugefügt haben. in dem die Bereichskonfiguration enthalten ist (in diesem Fall pcmcia_socket0. „Einrichtung der Schnittstelle“ (S.end > available_resources_io PCMCIA 607 . funktioniert die Karteninitialisierung und die Schnittstelleneinrichtung wie in Abschnitt 31. • Fügen Sie die Bereiche manuell durch. 604) und Abschnitt 31. legen Sie sie permanent fest. „Initialisierung der Karte“ (S. 606) beschrieben./sbin/modprobe yenta_socket /sbin/modprobe pcmcia 4 Starten Sie den PCMCIA-Socket: /sbin/pcmcia-socket-startupN Ersetzen Sie N durch die Nummer des Socket. Gehen Sie (für jeden einzelnen Socket) wie folgt vor. Wiederholen Sie diesen Schritt für jeden Socket.opts aus und versuchen Sie die Socket-Einrichtung erneut. um E/A-Bereiche manuell hinzuzufügen: 1 Wechseln Sie zum Verzeichnis. muss für andere Socket-Nummern angepasst werden): cd /sys/class/pcmcia_socket/pcmcia_socket0 2 Führen Sie den folgenden Befehl aus: echo begin .opts einschließen.2.opts angegeben.2. 5 Falls der vorige Schritt den Computer zum Absturz brachte. indem Sie sie in /etc/pcmcia/config .oder Speicherbereiche in /etc/pcmcia/config . um dies zu vermeiden: • Schließen Sie Bereiche in /ect/pcmcia/config.2.3. wie nachfolgend beschrieben. wurden möglicherweise die falschen E/A.

Manuelles Hinzufügen der folgenden Bereiche: echo 0x800 . Anderenfalls kann das System nicht ordnungsgemäß wiederaufgenommen werden.opts: include port 0x800-0x8ff. Die richtigen Werte können nur durch Ausprobieren ermittelt werden.opts). an denen der neue Bereich anfangen bzw. port 0xc00 0xcff Dieselbe Vorgehensweise gilt für die Speicherbereiche unter available_resources _mem. finden. 2 Öffnen Sie die Datei /etc