Linux-Parallelrechner als Clusterserver in

Größe: px
Ab Seite anzeigen:

Download "Linux-Parallelrechner als Clusterserver in"

Transkript

1 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Studienarbeit von cand.-inform. Oliver Wellnitz Aufgabenstellung und Betreuung Dr. Jörg Weimar Institut für Wissenschaftliches Rechnen Technische Universität Braunschweig 1

2 Inhaltsverzeichnis 1 Einleitung Aufgabenstellung Danksagung Vorgeschichte Systemkonfiguration Überblick Systemkonfiguration Server Systemkonfiguration Clients /etc/rc.d/rc.sysinit Kernelkonfiguration Network Information System (NIS) Synchronisierung zwischen Client und Server mit rsync Andrew File System (AFS) Secure Shell ssh Ausblick Lastausgleich mit dem Domain Name Service Definition des Problems Der Lösungsansatz Der Lastinformationsdienst (beoprocd) Der Sammler (pollclient) Der DNS Server (beonamed) Interaktive Benutzer Parallel Virtual Machine PVM Konfiguration Informelle Daten Lastinformationen im World Wide Web

3 4 Lastabhängige Prozeßverteilung Hintergrund Überblick Konfiguration beostart beostart.conf Funktionsweise Besonderheiten und Einschränkungen Performancetests Beschreibung der Testumgebung Test des Lastverteilungssystems Testlauf (ohne spezielles Lastverteilungssystem) Testlauf (mit Lastverteilungssystem, 90 Sekunden Updateintervall) Testlauf (mit Lastverteilungssystem, 5 Sekunden Updateintervall) Testlauf (Round robin) Vergleich Round robin / beonamed Zusammenfassung und Ausblick Test der lastabhängigen Prozeßverteilung Analyse und Optimierung der Latenzzeiten Phase 1 - Linux-Kernel Phase 2 - Bildbearbeitung Zusammenfassung und Ausblick Zusammenfassung und Ausblick 35 A Konfiguration des DNS-Servers beonamed 36 B Bootpd-Konfigurationsdatei /etc/bootptab 37 C rsync Exclude Dateien 38 C.1 Root Filesystem update-clientexclude.root C.2 /var Filesystem update-clientexclude.var E Literaturverzeichnis 40

4 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite 1 1 Einleitung 1.1 Aufgabenstellung Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Es soll ein Parallelrechner, der als Linux-Cluster gebaut ist, bereitgestellt werden, um als Server für Studenten zu dienen, die sich dort einloggen können. Dazu muß der Rechner zuerst auf den neuesten Stand des Betriebssystems gebracht werden, es muß eine Einbindung in die RZ-Umgebung mit NIS und AFS realisiert werden, es muß eine geeignete Softwareauswahl installiert werden. Um den Cluster als eng gekoppelten Rechner zu betreiben, sollen ausserdem folgende Fähigkeiten realisiert werden: eine lastabhängige Prozess-Migration. eine lastabhängige Auswahl des Einlog-Knotens. eine dynamische Erzeugung von Konfigurationsfiles für das Parallelrechnen mit PVM und MPI. Es sollen Werkzeuge angepaßt werden, die eine zentrale Überwachung aller Knoten erlauben. 1.2 Danksagung Bedanken möchte ich mich bei Frank Strauß für seine procps-patches, dem Rechenzentrum der Technischen Universität Braunschweig, insbesondere Herrn Dümpert für die überwiegend reibungslose Zusammenarbeit und Hilfestellung und natürlich dem PaRe-Team, ohne deren Vorleistung diese Arbeit gar nicht möglich gewesen wäre. Ganz besonderes bedanke ich mich bei Dr. Jörg Weimar, der sich bereiterklärt hat, dieses Thema zu betreuen. 1.3 Vorgeschichte Im Januar 1998 entstand unter der Leitung von Dr. Jörg Weimar das erste Praktikum Parallelrechner aus Standardkomponenten an der TU Braunschweig. Ziel dieses Praktikums war es, einen Supercomputer der Beowulf[BM 84]-Klasse aus Standard PC-Komponenten zu bauen. Die Teilnehmer sollten das Projekt bereits von der Design- und Beschaffungsphase an mit aufbauen und dabei praktische Erfahrungen in der parallelen Datenverarbeitung gewinnen. Als erstes Ergebnis wurden 18 PCs gekauft, die wie folgt ausgerüstet sind: intel Pentium II Prozessor mit 233 MHz 128 MB SD-RAM 4,3 GB IDE Festplatte 89mm (3,5 Zoll) Diskettenlaufwerk, 1,44 MB

5 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite 2 Abbildung 1: Der PaRe-Cluster 100baseTX Fast Ethernet Netzwerkkarte Ein zusa tzlicher Rechner, der sogenannte Konsolenrechner, bekam eine 24-Port serielle Schnittstelle, er ist auch der einzige Rechner, der eine Grafikkarte und einen Monitor besitzt. Die 18 Pentium II Rechner rzpare01 rzpare18, der eigentliche PaRe Cluster, ko nnen u ber ihn gesteuert werden. Abbildung 1 zeigt das fertige System. Der erste Rechner, rzpare01, dient zusa tzlich als Router und Server fu r den Rest des Clusters und besitzt aus diesem Grund einen SCSI-Controller, eine zusa tzliche SCSI-Platte und eine zweite Netzwerkkarte. Die Rechner sind untereinander u ber einen 10/100 MBit Ethernet Switch der Firma NBase verbunden. Als Netzwerkprotokoll kommt TCP/IP zum Einsatz.

6 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite 3 2 Systemkonfiguration 2.1 Überblick Der Cluster lief seit Ende des Praktikums im Oktober 1998 in einem stabilen Zustand mit Red- Hat Linux 5.0 und der Linux Kernelversion 2.0. Im Rahmen dieser Studienarbeit sollte das System gleichzeitig auf RedHat Linux 6.0 mit der Linux Kernelversion umgerüstet werden. Neben der glibc-2.1 und dem neuen Kernel ist eine einigermaßen aktuelle Distribution mit allen notwendigen Patches auch die Grundvoraussetzung für den sicheren Einsatz als Produktionsmaschine in einem Rechenzentrum. Die Umstellung aller System- und Anwendungsprogramme wird dankenswerterweise vollständig von der Linuxdistribution geleistet. Dennoch muß noch einiges umkonfiguriert und angepaßt werden, da PaRe nicht unbedingt die üblichen Merkmale eines PCs aufweist. Trotz einer eigenen 4 GB Festplatte booten die Rechner rzpare02 bis rzpare18 diskless. Momentan tun sie das noch mit Hilfe einer Diskette, auf der sich jedoch nur der Linux-Kernel befindet. Eine Version mit Boot-EPROMs ist ebenfalls denkbar. Das Root- und andere Filesysteme werden per Network File System (NFS) vom Server importiert. Die Festplatte wird natürlich auch genutzt. Sie enthält eine große temporäre Partition /tmp, den Cache für das Andrew File System (AFS) und den 256 MByte großen Swapbereich. Die Abbildungen 2 und 3 zeigen die Mounttabellen für Clients und Server. Filesystem Size Used Avail Use Mounted on /dev/root 585M 171M 384M 31% / server:/export/rzpare02-var 585M 171M 384M 31% /var /dev/hda9 2.5G 594k 2.4G 0% /tmp server:/home 2.3G 2.2G 28M 99% /home server:/usr 994M 523M 420M 56% /usr server:/usr/local 873M 419M 409M 51% /usr/local /dev/hda8 585M 22M 532M 4% /usr/vice/cache AFS 8.6G 0 8.6G 0% /afs Abbildung 2: Mount-Tabelle (diskless Clients) Das /export Filesystem enthält das Root-Filesystem für die 17 Clients und für jeden ein eigenes /var Verzeichnis, welche an die jeweiligen Rechner per NFS exportiert werden. Da das Root- Filesystem nur lesend an die Clients exportiert wird, braucht es nur einmal auf der Festplatte zu liegen, die Clients können ja nichts daran verändern. Anders ist es mit den /var Verzeichnissen. Hier liegen Lockfiles, Spoolverzeichnisse und Zwischenlagerungsbereiche, die jeder Rechner für sich braucht und auf die er auch schreibend zugreifen können muß. Im folgenden wird die Systemkonfiguration des Servers und der Clients ausführlich beschrieben, sofern sie von einer normalen stand-alone Installation abweicht. Weiterführende Informationen zur Systemkonfiguration unter Linux findet man in [Hei99] oder [WDK99]. Es wird jeweils ein oder mehrere Kommandozeilenbefehle gezeigt und dann im nächsten Absatz erläutert.

7 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite 4 Filesystem Size Used Avail Use Mounted on /dev/sda5 61M 50M 7.5M 87% / /dev/sda6 585M 171M 384M 31% /export /dev/sda8 2.3G 2.2G 28M 99% /home /dev/sda7 994M 523M 420M 56% /usr /dev/hda7 2.5G 1.4G 965M 60% /tmp /dev/hda8 296M 85M 196M 30% /usr/vice/cache /dev/hda9 873M 419M 409M 51% /usr/local AFS 8.6G 0 8.6G 0% /afs 2.2 Systemkonfiguration Server Abbildung 3: Mount-Tabelle (Server) Zunächst einmal muß das root-verzeichnis und die /var Verzeichnisse für die Clients erstellt werden. Dazu werden die jeweiligen Filesysteme vom Server ersteinmal kopiert. rzpare01 # mkdir -p /export/root rzpare01 # tar cpbslf - / ( cd /export/root; tar xvpbsf - ) rzpare01 # cd /var rzpare01 # for i in seq -w 18 ; do tar cpbslf - /var ( cd /export ; tar xpbsf - ); mv /export/var /export/rzpare$i-var ; done Wie der aufmerksame Leser sicherlich schon bemerkt hat, erstellt das letzte Kommando auch eine Kopie von /var für rzpare01, den Server. Damit soll dem ganzen eine einheitliche Struktur gegeben werden, als Nebeneffekt werden jetzt auch Hardlinks zwischen allen /var Verzeichnissen möglich. Natürlich muß noch ein entsprechender Link erstellt werden: rzpare01 # rm -Rf /var rzpare01 # ln -s /export/rzpare01-var /var Damit die Cluster Clients über das Netz booten können, muß ein sogenannter Boot protocol-server (BOOTP) auf dem Server installiert und konfiguriert werden. Er übergibt den Clients unter anderem Informationen über Ihre IP-Adresse, die Subnetzmaske, das Rootfilesystem, die NIS Domäne und vieles andere mehr. Die Clients werden dabei aufgrund der eindeutigen Medium Access Control (MAC) Adresse der Netzwerkkarte unterschieden. Die vollständige Konfigurationsdatei des BOOTP daemon befindet sich in Anhang B. rzpare01 # mv /var/lib/rpm/* /usr/lib/rpm rzpare01 # rmdir /var/lib/rpm rzpare01 # ln -s /usr/lib/rpm /var/lib/rpm Die Linux-Distribution RedHat benutzt das Packagemanagementsystem RPM, welches Informationen über installierte Softwarepakete beinhaltet. Diese Datenbank liegt defaultmäßig in /var/lib/ rpm und ist somit im Cluster 18 mal vorhanden. Da die Clients die komplette Software vom Server beziehen, macht es Sinn diese Datenbank auch gleich in das /usr Filesystem zu verschieben.

8 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite 5 TUBSnet Systemkonfiguration Clients Abbildung 4: Netzwerkstruktur rzpare-client # chkconfig --level 2345 network off Die Netzwerkkonfiguration wird vor dem Booten des Kernels bereits durch BOOTP ausgeführt und ist nicht notwendig. rzpare-client # ln -s /sbin/true /sbin/fsck.nfs Das Root-Filesystem der Clients kommt über NFS und braucht daher keinen Filesystemcheck zu durchlaufen. So verläuft der Test immer erfolgreich. rzpare-client # chkconfig --del nfs

9 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite 6 NFS Filesysteme brauchen nicht mehr gemounted zu werden, da dies bereits vorher in /etc/rc. d/rc.sysinit passiert. rzpare-client # ln -s /etc/mtab /proc/mounts Das root Filesystem wird, wie später noch zu sehen sein wird, nicht schreibbar den Clients zur Verfügung gestellt. In /etc/mtab legen jedoch Programme wie zum Beispiel mount(8) Informationen über die aktuell gemounteten Dateisysteme ab. Da alle Clients dasselbe root Filesystem benutzen und somit auch dieselbe /etc/mtab, wäre es nicht ratsam, in diese Datei zu schreiben, da alle anderen Clients plötzlich andere, falsche Informationen hätten. Der Kernel hat jedoch seine eigene Mounttable, die er über das Pseudofilesystem /proc zur Verfügung stellt. rzpare-client # mkdir /var/dev rzpare-client # touch /var/dev/log rzpare-client # ln -s /var/dev/log /dev Der Socket /dev/log wird vom syslogd(8) daemon erstellt, der hierüber Meldungen von Programmen empfängt und weiterverarbeitet. Da auf jedem Rechner ein eigener daemon läuft, ist es sinnvoll, diesen Socket nach /var zu verlagern. Zusätzlich wird noch ein Link erstellt, um die Änderung transparent zu halten. Dieser Befehl muß auf jedem Client oder auf allen /export/ rzpare*-var Verzeichnissen ausgeführt werden, da jeder Rechner, wie bereits erwähnt, sein eigenes /var Filesystem besitzt. Es wurden noch weitere Anpassungen gemacht, die hier nicht im Detail beschrieben werden sollen. So wurde der Server als Empfänger aller syslog-nachrichten in /etc/syslog.conf eingetragen und die Datei /etc/fstab mit den notwendigen NFS Einträgen versehen /etc/rc.d/rc.sysinit Im Nachfolgenden wird die beim Systemstart wichtige Datei /etc/rc.d/rc.sysinit und die darin gemachten Änderungen näher betrachtet. Die Ausgabe eines diff(1) zwischen der Originaldatei und der geänderten wurde dafür etwas aufgearbeitet und kommentiert. Zeilen, die mit einem Minus beginnen, wurden aus der Originaldatei gelöscht, Zeilen mit einem Plus am Anfang ergänzt. Alle übrigen blieben unverändert. Zeile 57: - action Setting hostname $ HOSTNAME hostname $ HOSTNAME + action Hostname already set. We are hostname /bin/true Der Hostname wurde bereits mit dem BOOTP-Protokoll vom Server übermittelt und gesetzt. Deshalb ist eine Änderung hier nicht mehr notwendig. Stattdessen wird der Hostname zur Kontrolle auf der Konsole ausgegeben.

10 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite 7 Zeile 61: # Set the NIS domain name if [ -n $NISDOMAIN ]; then action Setting NIS domain name $NISDOMAIN domainname $NISDOMAIN - else - domainname + #else + # domainname fi Ähnliches wie für den Hostnamen gilt auch für den NIS Domainnamen. Er wurde bereits gesetzt und braucht nicht verändert zu werden. Hier muß allerdings noch zusätzlich darauf geachtet werden, daß er nicht gelöscht wird, da die Variable NISDOMAIN nicht definiert ist. Um dies zu umgehen, wird der entsprechende else-fall einfach auskommentiert. Zeile 134: # Remount the root filesystem read-write. - action Remounting root filesystem in read-write mode - mount -n -o remount,rw / + #action Remounting root filesystem in read-write mode + # mount -n -o remount,rw / Das Root-Filesystem wird von allen Clients gleichzeitig benutzt. Aus diesem Grund ist es nicht ratsam den Schreibzugriff zu erlauben, da sich eine Veränderung auf alle Clients auswirkt. Ein Fehler eines Rechners könnte so den ganzen Cluster lahmlegen. Da das Root-Filesystem schon vom Kernel read-only gemounted wurde, kann die Aktion hier einfach auskommentiert werden. Zeile 153: # Clear mtab - >/etc/mtab + #>/etc/mtab Wie bereits auf Seite 6 beschrieben, ist /etc/mtab ein Link auf /proc/mounts. Ein Leeren ist also zweckfrei. Zeile 156: # Enter root and /proc into mtab. - mount -f / - mount -f /proc + #mount -f / + #mount -f /proc Aus demselben Grund wie schon zuvor müssen auch das Root- und das Proc-Filesystem nicht in die Datei /etc/mtab eingetragen werden. Der Kernel weiß bereits, daß sie gemounted sind.

11 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite 8 Zeile 274: # Mount all other filesystems (except for NFS and /proc, which is already # mounted). Contrary to standard usage, # filesystems are NOT unmounted in single user mode. - action Mounting local filesystems mount -a -t nonfs,smbfs,ncpfs,proc + #action Mounting local filesystems mount -a -t nonfs,smbfs,ncpfs,proc + action Enabling loopback network device ifconfig lo action Mounting /var NFS filesystems + mount -t nfs -o nolock server:/export/ hostname -var /var + mount -a + action Mounting filesystems from /etc/fstab /bin/true Die Mountreihenfolge muß bei den diskless Clients etwas anders aussehen. Daher wird der Originalbefehl auskommentiert und durch drei eigene ersetzt. Zunächst wird das Loopback Netzwerkinterface aktiviert. Dies ist bei neueren Linux Kernels erforderlich, da sonst der nächste NFS-mount Befehl hängen bleibt. Außerdem ist die Aktivierung des Loopbackinterfaces sowieso erforderlich, da die Netzwerkkonfiguration der Distribution abgeschaltet wurde (vgl. Seite 5). Anschließend wird das für den entsprechenden Client gültige /var Filesystem per NFS vom Server gemountet. Danach kommt der Rest an die Reihe. Hauptsächlich sind das die Filesysteme für /usr und /tmp, eine genau Liste ist aus Abbildung 2 ersichtlich. Nach der Abbarbeitung dieses Blockes sind alle Filesysteme außer dem AFS verfügbar. Zeile 352: # Right, now turn on swap in case we swap to files. - swapon -a >/dev/null 2>&1 + #swapon -a >/dev/null 2>&1 action Enabling swap space /bin/true Eine explizite Aktivierung des Auslagerungsbereiches ist nicht mehr erforderlich, da direkt in Partitionen und nicht in Dateien ausgelagert wird. 2.4 Kernelkonfiguration Der neue Linux Kernel Version, der zunächst in der Version installiert wurde, bringt einige Veränderungen gegenüber dem alten System mit sich. Für den Parallelrechner ist die Neuimplementierung des Network File Systems (NFS) am Folgenreichsten gewesen. Im Gegensatz zum alten Userspace-Server wird die Hauptfunktionalität jetzt von einem Teil des Betriebssystems selber realisiert und nur noch ein kleiner Teil vom knfsd, dem Userspace-Dämonen, übernommen. Zusätzlich wurde im Linux Kernel das bisher fehlende File locking implementiert. Leider überzeugten die ersten Tests mit dem NFS System nicht. Neben Stabilitätsproblemen richtete das File locking mehr Schaden als Nutzen an. Es funktionierte nämlich gar nicht. Dies war zwar bei den alten Kernen auch der Fall, diese behaupteten aber auch, daß sie es nicht könnten. So war es Programmen möglich sich darauf einzustellen. Als Folge dieses Fehlers mußte das File locking per Befehlsoption nolock beim mounten ausgeschaltet werden. Das Stabilitätsproblem war mit einer handvoll Kernelpatches für die aktuelle Version und der neusten Entwicklerversion des knfsd in den Griff zu bekommen. Zukünftige Kernelversionen werden sicherlich aktuelle knfsd Versionen beinhalten, so daß keine Handarbeit mehr notwendig werden sollte.

12 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite Network Information System (NIS) Durch das Ausschalten des File locking lief aber plötzlich das Programm ypbind nicht mehr, welches versucht seine Datenbank unter /var/yp zu locken. Das Network Information System (NIS), früher Yellow Pages (YP) genannt, ist eine zentrale Datenbank, die Benutzerinformationen, Rechneradressen, Servicenamen, also die Daten der Dateien /etc/passwd, /etc/hosts und /etc/services enthält aber auch Konfigurationsdateien für Automounter und vieles mehr bereithält und auf Wunsch anderen Rechnern zur Verfügung stellt. PaRe benutzt dabei den NIS Server des Rechenzentrums, um deren Benutzer den Zugriff auf den Cluster zu ermöglichen. Das einzige Verzeichnis, das File locking unterstützt ist das Verzeichnis für temporäre Dateien /tmp, welches auf der lokalen Platte liegt, der gesamte Rest kommt über NFS vom Server. Die eigentliche NIS Datenbank muß also in diesem Verzeichnis liegen. Dies ist durch den temporären Charakter von /tmp etwas schwieriger, denn es muß davon ausgegangen werden, daß das Verzeichnis nach dem Booten einen veränderten oder gar keinen Inhalt mehr besitzt. Vor dem Starten des Programmes ypbind muß also sichergestellt werden, daß das benötigte Verzeichnis sich in einem wohldefinierten Zustand befindet. Dazu wird das Startskript /etc/init.d/ypbind wie folgt ergänzt: rm -Rf /tmp/yp 2>/dev/null action Preparing YP directory /bin/mkdir -p /tmp/yp/binding cat <<EOF >/tmp/yp/nicknames passwd passwd.byname group group.byname networks networks.byaddr hosts hosts.byaddr protocols protocols.bynumber services services.byname aliases mail.aliases ethers ethers.byname EOF Damit diese Konstruktion auch benutzt wird, muß das Verzeichnis /var/yp ein Link auf /tmp/yp sein. Diese Änderung ist natürlich nur auf den Clients notwendig, da der Server das /var Dateisystem auf der lokalen Platte hat. Auch diese Speziallösung kann entfallen, wenn zukünftige Linux-Kernel NFS-File-Locking stabil unterstützt. 2.6 Synchronisierung zwischen Client und Server mit rsync Beim Installieren oder beim Update von Programmen werden Dateien in verschiedenen Bereichen des Systems angelegt oder überschrieben. Die Programme selber, die meistens irgendwo unter /usr beziehungsweise /usr/local liegen, sind damit sofort auf allen Rechnern des Clusters verfügbar. Diese Filesysteme sind nur einmal vorhanden und werden vom Server allen anderen zur Verfügung gestellt. Nicht so einfach ist es bei Konfigurationsdatei, Bibliotheken, Spoolverzeichnisse und ähnlichem. Das Rootverzeichnis gibt es zweimal im Cluster, einmal für den Server und einmal für alle

13 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite 10 Clients. Das Verzeichnis /var sogar für jeden Rechner einmal. Es muß also ein Mechanismus gefunden werden, mit dem diese Dateien nach der Installation oder dem Update auf allen Rechner synchronisiert werden. Das Programm rsync ist für die Synchronisation von Dateien und Verzeichnissen zwischen zwei Rechnern konzipiert worden und eignet sich für diese Aufgabe hervorragend. Dabei werden die kompletten Verzeichnisse jeweils synchronisiert und bestimmte rechnerspezifische Dateien ausgeschlossen. Die Liste dieser Dateien finden sich in Anhang C. Der eigentliche Synchronisierungsvorgang erfolgt über ein Skript, welches alle Filesysteme nacheinander auf den aktuellen Stand bringt. Im wesentlichen sieht das wie folgt aus, hier als Bash-Skript: # Where are the directories? CLIENT=/export CONFIG=/usr/local/load-balancing # Sync root filesystem rsync -vrlshdxpogt --delete --exclude-from=$config/update-clientexclude.root / $CLIENT/root # Sync all /var filesystem for i in seq -w 2 18 ; do rsync -vrlshdxpogt --delete --exclude-from=$config/update-clientexclude.var /var/ $CLIENT/rzpare$i-var done Zwar kann das Skript update-clients manuell nach einer jeden Änderung aufgerufen werden, mit einem Cronjob ist man aber auf der sicheren Seite. Im Augenblick werden jeden Tag um Mitternacht die Client Rechner aktualisiert. Durch diese Automatisierung darf jetzt natürlich keinerlei Software mehr auf den Client Rechnern installiert werden. Jegliche Veränderung muß auf dem Server rzpare01 durchgeführt und dann mit diesem Mechanismus auf den Cluster verteilt werden. Nach dem Update oder der Installation von Softwarepaketen sollten beide Exclude-Dateien inspiziert und gegebenenfalls aktualisiert werden. Erst danach darf der Aktualisierungsprozess /usr/local/load-balancing/updateclients angeworfen werden. 2.7 Andrew File System (AFS) Das Rechenzentrum der Technischen Universität Braunschweig verwendet das Andrew File System (AFS) der Firma Transarc als verteiltes Dateisystem und zur Benutzerauthentfizierung. Aus diesem Grund wurde auch auf dem Parallelrechner ein AFS-Client installiert, was auch ohne weitere Zwischenfälle verlief. Das Filesystem speichert bereits aus dem AFS geholte Daten auf der eigenen Platte zwischen, um einen performanteren Zugriff zu ermöglichen. Da es keinen Sinn macht, diesen Cache selbst wieder über NFS vom Clusterserver zu holen, erhält jeder Rechner eine eigene Cache-Partition von circa

14 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite MB Größe. Nach den mit AFS im Rechenzentrum bereits gemachten Erfahrungen reicht diese Größe auch bei intensiveren Arbeiten aus und ist großzügig dimensioniert. Auf der Partition wird mit mke2fs ein Standard Ext2-Dateisystem erstellt und diese wird danach mit dem Mountpunkt /usr/vice/cache in die Mounttabelle /etc/fstab eingetragen. Der AFS daemon arbeitet legt den Cache als normale Dateien im Filesystem ab und initialisiert das Verzeichnis beim Starten automatisch, wenn keine alten Daten gefunden wurden. Ein großer Nachteil an AFS ist, daß sämtliche Programme ersetzt werden müssen, die eine Benutzerauthentifikation durchführen. Das sind neben den Programmen, die zum Einloggen von Benutzern benötigt werden (login, rlogind, rshd u.ä.) auch zum Beispiel passwd zum Ändern von Benutzerpasswörtern oder su zum Wechsel von Benutzeridentitäten. Durch die Verwendung von Pluggable Authentication Modules (PAM), die in allen aktuellen Linux Distributionen standardmäßig verwendet werden, wird diese Änderung jedoch fast trivial. Bei PAM werden alle oben aufgeführten Programme gegen die Bibliothek libpam.so gelinkt. Die Authentifikation wird komplett von dieser Bibliothek durchgeführt, die sich für jedes Programm einzeln, in /etc/pam.d konfigurieren läßt. Sie bedient sich dabei der bereits erwähnten Authentifikationsmodule, die nach einem Regelsatz in der Konfigurationsdatei durchlaufen werden. Abbildung 5 zeigt die Datei/etc/ pam.d/login, die für die Authentifizierungsmethode des Loginprogramms /bin/login zuständig ist. Die dritte Zeile wurde hinzugefügt und macht das Programm ohne Neuübersetzung #%PAM-1.0 auth required /lib/security/pam securetty.so auth required /lib/security/pam nologin.so auth sufficient /lib/security/pam afs.so try first pass ignore root setenv password expires auth required /lib/security/pam pwdb.so shadow nullok account required /lib/security/pam pwdb.so password required /lib/security/pam cracklib.so password required /lib/security/pam pwdb.so shadow nullok use authtok session required /lib/security/pam pwdb.so Abbildung 5: PAM Konfiguration für das Loginprogramm /bin/login AFS-fähig. Ähnliches läßt sich mit allen oben erwähnten Programmen bewerkstelligen. Auf PAM und ihre Konfiguration soll an dieser Stelle nicht weiter eingegangen werden, nähere Informationen zu diesem Thema findet man in [Mor99]. Der kommerzielle AFS Client für Linux wird als binary-only Version ohne Quellcode nur für die Linux Kernelversionen und geliefert. Hauptsächlich aufgrund der NFS Probleme, die im Abschnitt 2.4 Kernelkonfiguration erwähnt wurden, ist es jedoch ratsam, einen aktuelleren Kernel aus der stabilen Versionsreihe 2.2.x zu verwenden. Der einzige Unterschied zwischen beiden Versionen des AFS-Clients besteht im AFS-Kernelmodul, das es für beide oben genannten Version jeweils einmal gibt. Da sich das Modulinterface zwischen verschiedenen Minor-Versionsnummer nicht ändert, ist es sehr wahrscheinlich, daß auch mit höheren Kernelversionsnummern ein stabiler AFS-Betrieb möglich ist. Das Laden des Kernelmoduls geschieht in /etc/init.d/afs mittels insmod(1). Geladen wird dabei /usr/vice/etc/libafs- uname -r.o. Damit das Ganze nun auch unter der installierten Version knfsd1.5.2 funktioniert, muß zunächst mit dem Befehl rzpare01 # cd /usr/vice/etc rzpare01 # ln -s libafs o libafs knfsd1.5.2.o

15 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite 12 ein Link erstellt werden und dann der insmod Befehl im oben genannten Skript mit der Option -f für force versehen werden. Möglich wäre auch eine Variante mit modprobe(1) und der Kerneloption CONFIG MODVERSIONS. Das alte Modul läuft mittlerweile längere Zeit mit dem neuen Kern und hat sich als ausgesprochen stabil erwiesen. Die eben angesprochene Lösung ist jedoch keinesfalls generisch. Für jede neue Kernelversion aus der 2.2.xer Serie muß jeweils ein eigener Link erstellt werden. Natürlich hätte man das einfacher lösen können, doch wurde dieser Weg mit Absicht gewählt, da es ratsam ist, mit jedem neuen Kern ersteinmal einen intensiven Probelauf durchzuführen bevor man ihn im Produktionsbetrieb einsetzt. Trotz aller Vorsichtsmaßnahmen muß man im Auge behalten, daß strenggenommen das Modul außerhalb seiner Spezifikation betrieben wird. 2.8 Secure Shell ssh Sowohl der eingeschränkt einsetzbare kommerzielle sshd als auch das freie Pendant openssh hatten Probleme in der Zusammenarbeit mit AFS. Zwar klappte die Authentifizierung gegen dieses System, allerdings wurde kein AFS-Token zugeteilt. Letzteres ist aber Bedingung für den Zugriff auf das eigene Homeverzeichnis, so dass ein vernuenftiges Arbeiten nicht moeglich war. Auch durch den Patch aus [Son99] wurde das Problem nicht behoben, da eine Kerberos Authentifikation gegen das AFS immer fehlschlug. Erst der speziell angepasste Secure Shell Dämone des CERN brachte den gewünschten Erfolg. Da dieses Programm leider nur als vorkompiliertes Binary zur Verfügung stand, war eine genauere Analyse des Problems bzw. deren Lösung nicht möglich. 2.9 Ausblick Einige wünschenswerte Erweiterungen wurden im Laufe dieser Arbeit nicht realisiert, würden aber trotzdem eine sinnvolle Ergänzung darstellen. Der PaRe Cluster ist über den Server rzpare01 mit dem Campusnetz der TU Braunschweig und darüber auch mit dem Internet verbunden. Da in jüngster Zeit ein massiver Anstieg von Angriffen über das Internet auf Rechner der Universität stattgefunden hat, ist es sicherlich sinnvoll Maßnahmen zu ergreifen, um die Rechner vor solchen Attacken zu schützen. Durch seine Eigenschaft als Router ist der Server geeignet diese Aufgabe zu erfüllen und als Firewall den Rest des Netzes vor schädlichen Paketen zu schützen. Durch die bereits angedachte Lösung vom Konsolenrechner aus einen Hardwarereset des Clusters durchführen zu können, würde die remote Administration perfektionieren.

16 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite 13 3 Lastausgleich mit dem Domain Name Service 3.1 Definition des Problems Die Migration von Prozessen ist gewöhnlich mit einer Reihe von Schwierigkeiten verbunden. Selbst wenn es auf den ersten Blick trivial erscheint, Prozesse durch einfaches Kopieren von einem Host auf den anderen zu bringen, wird diese Aufgabe beispielsweise bei geöffneten Dateien und/oder benutzen Sockets recht komplex. Dabei reagiert die Migrationstrategie meistens auch erst dann, wenn Systemresourcen wie Rechenzeit oder Speicher knapp werden. Die hier entwickelte Lastausgleichslösung setzt vorher an, indem bereits vor dem Einloggen des Benutzers oder dem Starten eines Programms versucht wird die Last auf alle Rechner des Clusters möglichst homogen zu verteilen. 3.2 Der Lösungsansatz Die Aufgaben eines Clusters sind zunächst in zwei große Gebiete unterteilt: Interaktiv arbeitende Benutzer und auf mehreren Maschinen laufende parallele Jobs. Für die letzte Kategorie beschränken wir uns auf Prozesse, die über das Parallel Virtual Machine (PVM) System gestartet werden. Dies geschieht exemplarisch für parallelisierbare Prozesse, eine Anpassung an andere Bibliotheken, wie etwas MPI, sind ebenfalls denkbar. Darüberhinausgehende Informationen zu dem hier benutzten PVM finden sich in [Mor99]. Als eindeutiges Identifikationsmerkmal von Rechnern im Internet werden die 32 Bit langen Adressen des Internet Protokols (IP) verwendet. Im alltäglichen Gebrauch werden Rechner aber über Namen bezeichnet, da diese sich erheblich einfacher merken lassen. Für das Mapping zwischen IP-Adressen und Hostnamen sorgt dabei der Domain Name Service (DNS), der in [Moc87a] und [Moc87b] beschrieben wird. Der hierarchische Aufbau des DNS sorgt dabei für den Erhalt der Eindeutigkeit der Rechnernamen. Für den Lastausgleich interaktiver Benutzer wird nun ein virtueller Rechnername erschaffen, dem jeweils dynamisch die Maschine mit der geringsten Last zugeordnet wird. Für PVM wird ein ähnliches Vorgehen angewandt. Auch hier wird ein virtueller Rechner geschaffen, der jedoch aus allen entsprechend konfigurierten Maschinen in gewichteter Reihenfolge besteht. Dieses Verfahren benötigt drei Funktionen: einen DNS Server, der dynamisch erzeugte Datensätze, sogenannte resource records verteilen kann, einen Dienst auf jedem Rechner des Clusters, der Lastinformation bereitstellt, und einen Sammler, der die Lastinformationen sammelt und dem DNS-Server zur Verfügung stellt.

17 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite 14 Cluster... beo procd beo procd beo procd beo procd beo procd pollclient DNS beonamed Abbildung 6: Das DNS Lastverteilungssystems Der regelmäßige Austausch von Daten zwischen dem DNS-Server und dem Sammler legt nahe, beide Prozesse auf einem Rechner laufen zu lassen, um die Möglichkeit der Interprozesskommunikation auszunutzen. Wie die einzelnen Teile des Lastverteilungssystems zusammenhängen, zeigt Abbildung 6. Im folgenden werden alle drei Teilbereiche im Einzelnen näher betrachtet. 3.3 Der Lastinformationsdienst (beoprocd) Im Rahmen des schon erwähnten Praktikums Parallelrechner aus Standardkomponenten wurde von Frank Strauß ein Softwarepaket[Str98] basierend auf den procps utilities entwickelt, daß unter anderem die Kommandozeilentools ps und top clusterfähig macht. Grundlage hierfür ist der beoprocd daemon, der auf UDP Port Pakete wartet und auf Anfrage Informationen über Prozesse oder das System herausgibt. Durch die Verwendung des User Datagram Protocols (UDP), einem verbindungslosen Transportprotokoll, ist es per Broadcast/Multicast möglich, mit einfachen Mitteln Informationen über den gesamten Cluster zu erhalten. Dazu wird beispielsweise eine Anfrage an die Broadcastadresse des Clusters geschickt und alle Rechner antworten mit der gewünschten Information. Da die Anzahl der eingeloggten Benutzer für den Lastausgleich recht interessant ist, wurde beoprocd und das verwendete Nachrichtenformat verändert und ergänzt (siehe Abbildung 7). Zusätzlich

18 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite 15 zu den Daten über die Last und die Speicherbelegung wurde je ein Feld über die Anzahl aller eingeloggten Benutzer und über die Anzahl aller benutzten Terminals hinzugefügt. Die zweite Zahl ist dabei größer oder gleich der ersten, da ein Benutzer mehrere Terminals benutzen kann. Um Inkompatibilitäten zwischen dem Originalprogrammpaket und der angepaßten Version zu vermeiden, wurden auch die Kodierungen geändert, mit dem auf die Informationen zugegriffen werden kann. Ein so veränderter Server reagiert auf Anfragen von älteren Clients somit nicht mit (für den Client) falschen Werten. struct sysinfo ; time t timestamp; char host[10]; double uptime; double idle; double loadavg 1; double loadavg 5; double loadavg 15; unsigned int user total; unsigned int user unique; unsigned long long meminfo total; unsigned long long meminfo free; unsigned long long meminfo shared; unsigned long long meminfo buffers; unsigned long long meminfo cached; unsigned long long meminfo swtotal; unsigned long long meminfo swfree; Abbildung 7: Datenstruktur der verteilten Lastinformation 3.4 Der Sammler (pollclient) Der Sammler sendet regelmäßig, defaultmäßig alle 30 Sekunden, einen Broadcast UDP Request auf Port 45367, um die Lastinformationen vom beoprocd aller Rechner des Clusters anzufordern. Im Falle mehrerer Netzwerkkarten benutzt er das Interface mit der kleinsten Netzmaske. Somit ist diese Version darauf beschränkt im gleichen Netzsegment zu laufen, wie auch der Cluster selber. Bevor wieder eine Anfrage gesendet wird, werden alle bisher vom Cluster empfangenen Daten in eine Datei geschrieben. Dann wird der DNS Server durch ein Signal dazu aufgefordert die Daten neu einzulesen. Der Sammler nimmt keinerlei Vorsortierung der Daten vor, denn er kennt auch die Konfiguration des Lastausgleichssystems nicht. Seine Aufgabe ist auf das reine Sammeln von Statusinformationen aus dem Cluster beschränkt. Die Schnittstelle zwischen Sammler und DNS Server wurde bewusst so einfach wie möglich gehalten, damit der Sammler austauschbar bleibt. Denkbar sind zum Beispiel auch Versionen, die außerhalb des Clusters lauffähig sind, oder ein Sammler, der seine Informationen über den Remote Procedure Call (RPC) Dienst rstatd und dergleichen bezieht. Ein eigenes Programm muß folgende Merkmale unterstützen:

19 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite 16 Es existiert ein Kommandozeilenparamter mit dem Format -t Timeout-Wert in Sekunden angibt., der den Der Rechnerstatus wird jeweils einmal im Timeoutintervall aktualisiert. Das Ergebnis muß in die Datei /var/tmp/lb.status geschrieben werden. Um race conditions zu vermeiden, sollte eine temporäre Datei benutzt werden und diese mittels rename(2) erst kurz vor dem Senden des Signals in /var/tmp/lb.status umbenannt werden. Die Datei enthält pro Rechner eine Zeile und in mehreren durch Leerzeichen oder Tabulatoren getrennten Spalten diverse Informationen, die Tabelle 8 zu entnehmen sind. Der Sammler sendet nach Ablauf des Timeoutintervalls ein Signal (SIGUSR1) an seinen Vaterprozess. Spalte Information 1 Fully qualified domain named (FQDN) des Rechners 2 Zeit von Absenden der Antwort bis zur Ankunft der Antwort in Sekunden. 3 Last gemittelt über die letzte Minute 4 Last gemittelt über die letzten 5 Minuten 5 Last gemittelt über die letzten 15 Minuten 6 Anzahl der benutzen Terminals (0 falls nicht bekannt) 7 Anzahl der eingeloggten Benutzer (0 falls nicht bekannt) Abbildung 8: Dateiformat von /var/tmp/lb.status 3.5 Der DNS Server (beonamed) Es gibt bereits viele Implementationen für Domain Name Service (DNS) Server mit load-balancing Fähigkeiten, die verschiedene Ansätze und Ziele verfolgen (beispielsweise [lbnb] und [lbna]). Aus diesem Grund war es auch nicht notwendig das Rad neu zu erfinden. Der lbnamed [Sch95] von Roland Schemers benutzt ein recht modulares Konzept und ist auch nicht auf einen speziellen Verwendungszweck hin konzipiert. Zusätzlich ist er in Perl geschrieben und frei in Quellcode-Form erhältlich. Der im Laufe dieser Studienarbeit entwickelte beonamed basiert auf dem lbnamed, ist aber stark verändert und erweitert worden. Im nachfolgenden werden die einzelnen Funktionen des DNS Servers beleuchtet und und anschließend die Konfigurationsmöglichkeiten erörtert Interaktive Benutzer Zum interaktiven Arbeiten wird ein neuer, virtueller Rechner im DNS erschaffen, der die Benutzer abhängig von der Last der Maschinen des Clusters jeweils bei Zugriff auf den günstigen physikalischen Rechner leitet. Dabei kann durch Konfiguration festgelegt werden, welche Maschinen für diesen Zweck zur Verfügung stehen. Bei jeder Anfrage besteht die Antwort aus den beiden besten Rechnern, soweit verfügbar. Das hat zum einen den Zweck, daß notfalls der zweitbeste Rechner einspringen kann, falls zwischen dem Zeitpunkt der Lastabfrage und der DNS-Anfrage der beste Rechner unerwartet ausfällt. Zum anderen benutzen aktuelle DNS Resolver eine Round-Robin

20 A F D D Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite 17 Strategie für gecachte Einträge. Innerhalb der Gültigkeitsdauer der vom Lastausgleichssystem gegebenen Antwort findet demnach eine Gleichverteilung auf die beiden besten Rechner statt. Die Last eines Rechners wird wie folgt berechnet:!#" -,/ %$&'&(*)+ (87:9 6.;< $=9 (BA!#" ist die Anzahl der lauffähigen Prozesse im Scheduler, gemittelt über eine Minute. Die Variablen )+ und werden im Abschnitt Konfiguration näher erläutert. ist 6.;<,/.'012C5 ein variabler Wert der sich nach der Formel berechnet. EDF $HG&IKJ Wie bereits erwähnt arbeitet das System mit Stichpunktmessungen der Rechnerlast in festen Intervallen. Tritt nun in einem Intervall eine große Anzahl von Nachfragen nach dem virtuellen Rechner auf, so resultiert hieraus immer dieselbe Antwort. Aus diesem Grund wird der Lastwert jedes Rechners um einen festen Wert verschlechtert, wenn er in einer Antwort erwähnt wird. Die Last wird für diese Rechner praktisch für die Zukunft vorhergesagt. Jede Antwort auf die Frage nach der Adresse des virtuellen Rechners wird mit zwei Rechnern beantwortet. Je nachdem wie oft ein Rechner als erster ) oder zweiter (GMIKJ ) in einer Antwort enthalten war, umso größer wird seine Last. Der Sinn in der Existenz von A ist somit eine Art trivialer Prognose des Lastverhaltens eines Rechners zwischen zwei Stichpunktmessungen. Ein Rechner mit geringerem Lastwert wird dabei gegenüber einem mit höherem Wert bevorzugt Parallel Virtual Machine PVM Zur Benutzung von PVM steht das Programm beopvm zur Verfügung, daß die für den Benutzer günstigsten Rechner auswählt. Dabei werden nur die Rechner berücksichtigt, die in /etc/ cluster.conf für PVM Aufgaben konfiguriert wurden. Über Optionen auf der Kommandozeile lassen sich die gewünschte Anzahl der Rechner und ein Debugmodus einstellen. Ohne diese Angaben versucht beopvm, bei ausgeschaltetem Debug-Modus so viele Rechner wie möglich zu belegen. Die vollständige Kommandozeile sieht wie folgt aus: beopvm [-n #Hosts] [-d] [ Programm ] Das Programm konfiguriert den pvmd und startet eine Shell, von der aus sich PVM Programme und das Kommandozeilenfrontend pvm starten lassen. Beim Verlassen der Shell werden alle PVM Prozesse beendet. Für nicht-interaktive Arbeiten ist es auch möglich den PVM Job gleich beopvm mit auf der Kommandozeile zu übergeben Konfiguration Der DNS-Server beonamed wird über die Datei /etc/cluster.conf konfiguriert. Weitere Konfigurationsoptionen, beispielsweise Logging-Möglichkeiten, sind über die Kommandozeile beim Aufruf möglich. Hier kann auch eine alternative Konfigurationsdatei angegeben werden. Die genauen Optionen können der beonamed Manpage entnommen werden.

21 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite 18 Die Datei beonamed wird zeilenbasiert abgearbeitet und enthält in jeder Zeile genau eine Direktive, gefolgt von einem Doppelpunkt und einem Wert. Ein Beispiel finden sich in Anhang A. Admin (notwendig) Adresse des Clusteradministrators. Die Mailadresse muß nach RFC 822[Cro82] gültig sein. Augenblicklich wird diese Adresse nur für den SOA (Start of Authority) Datensatz im DNS benutzt. Eine spätere Verwendung für Fehlernachrichten ist jedoch denkbar. DNSDomain (notwendig) Name der Domain, die an den beonamed-rechner deligiert wurde. Dieser Eintrag muß in der Konfigurationsdatei grundsätzlich vor der Direktive DNSLBHost definiert werden. DNSLBHost (notwendig) Name des virtuellen Hosts für interaktiv arbeitende Benutzer. Der Name muß ohne Domain angegeben und kann frei gewählt werden, der Name pvm und load ist jedoch reserviert. DNS Anfragen nach diesem Namen werden mit einem der interaktiven Rechner aus der Hosts Direktive beantwortet. DNSServer (notwendig) Name des Rechners, der verantwortlich für den Lastausgleich ist. Dieses ist der Rechner auf dem der beonamed daemon läuft. Host.[ Rechnername ]. Option (optional) Diese Direktive verändert einzelne Werte auf einer per Host- Basis. Der Rechnername muß in der Direktive Hosts erwähnt werden. Folgende Optionen können verändert worden sein. Interactive [yes/no] (Standardwert: yes) Dieser Rechner soll/soll nicht interaktiv benutzt werden. Der durch DNSLBHost konfigurierte virtuelle Rechner besteht ausschließlich aus der Gruppe interaktiver Maschinen. PVM [yes/no] (Standardwert: yes) Dieser Rechner soll/soll nicht für PVM (Parallel virtual machine) Aufgaben benutzt werden. UserPenalty [Zahl] (Standardwert: durch UserPenalty-Direktive angegeben oder 0) Strafwert für jeden eingeloggten Benutzer dieses Rechners. Gezählt wird hierbei nur die Anzahl der verschiedenen Benutzer. Dieser Wert wird mit der Benutzeranzahl multipliziert, bevor er zu dem 100fachen des Lastwertes des Rechners hinzuaddiert wird. HostPenalty [Zahl] (Standardwert: 0) Konstanter Strafwert pro Rechner. Dieser Wert wird zu dem 100fachen des Lastwertes des Rechners hinzuaddiert, bevor er mit anderen verglichen wird. Durch diese Option kann eine schwächere Maschine oder ein Rechner mit zusätzlichen Aufgaben besonders berücksichtigt werden. Hosts (notwendig) Durch Leerzeichen oder Tabulatoren getrennte Liste aller am Cluster teilnehmenden Rechner. Alle Einträge müssen durch den Resolver aufgelöst werden können. Poller (notwendig) Programm, das die Lastinformationen sammelt. Es muß der vollständige Pfad angegeben werden. Im Abschnitt 3.4 ist der Lastsammler näher beschrieben.

22 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite 19 RunAs (notwendig) Diese Direktive gibt den Benutzer an, unter dem der DNS-Server und der Lastsammler läuft. Der DNS-Server startet zwar als root um sich an den DNS Port zu binden, macht aber nach Öffnen der Sockets ein setuid(2) auf die angegebene UserID. TTL (optional) Lebenszeit (TTL Time to live) der Lastinformationen. Dieses ist die Länge des Intervals, in dem die Lastinformationen der Rechner des Clusters auf den neusten Stand gebracht werden. Der Standardwert ist 30 Sekunden. UserPenalty (optional) Hiermit kann ein Strafwert für jeden eingeloggten Benutzer einer Maschine angegeben werden. Ein Benutzer, der mehrfach auf ein und derselben Maschine eingeloggt ist, wird nur einfach gezählt. Auf verschiedenen Maschinen zählt er jeweils als ein Benutzer Informelle Daten Zusätzlich zu den für das Lastausgleichsverfahren notwendigen Datensätzen gibt es noch einen weiteren. Auf die Anfrage nach load + Domainnamen erhält man einen RFC1464[Ros87]-kodierten Textstring. Abbildung zeigt eine solche Abfrage. Die Antwort enthält den festen String,,Load=, die aktuelle Anzahl der laufenden Rechner im Cluster und die drei jeweils aufsummierten realen Lastwerte des Clusters im ein, fünf und 15 minütigen Mittel. $ nslookup -query=txt load.pare.rz.tu-bs.de Server: meister.ibr.cs.tu-bs.de Address: load.pare.rz.tu-bs.de text = Load=17, 17.03, 17.03, pare.rz.tu-bs.de nameserver = rzpare01.rz.tu-bs.de Abbildung 9: Zusätzliche Lastinformation im DNS Lastinformationen im World Wide Web Eine Übersicht über die augenblickliche Konfiguration und die Last der einzelnen Rechner des Clusters stellt beonamed als HTML Seite im WWW dar. Abbildung 10 zeigt diese Übersicht. Auf sie kann über Port 8080 des DNS-Servers zugegriffen werden.

23 Linux-Parallelrechner als Clusterserver in einer RZ-Umgebung Seite 20 Abbildung 10: Lastinformation über PaRe im WWW

8 Network File System einrichten

8 Network File System einrichten 155 8 Network File System einrichten Um Clients ganze Verzeichnisse von Servern zum Lesen oder Lesen und Schreiben zur Verfügung zu stellen, benutzt man im Unix-Umfeld und generell in heterogenen Umgebungen

Mehr

1 Hochverfügbarkeit. 1.1 Einführung. 1.2 Network Load Balancing (NLB) Quelle: Microsoft. Hochverfügbarkeit

1 Hochverfügbarkeit. 1.1 Einführung. 1.2 Network Load Balancing (NLB) Quelle: Microsoft. Hochverfügbarkeit 1 Hochverfügbarkeit Lernziele: Network Load Balancing (NLB) Failover-Servercluster Verwalten der Failover Cluster Rolle Arbeiten mit virtuellen Maschinen Prüfungsanforderungen von Microsoft: Configure

Mehr

Netzwerk Linux-Kurs der Unix-AG

Netzwerk Linux-Kurs der Unix-AG Netzwerk Linux-Kurs der Unix-AG Benjamin Eberle 5. Februar 2015 Netzwerke mehrere miteinander verbundene Geräte (z. B. Computer) bilden ein Netzwerk Verbindung üblicherweise über einen Switch (Ethernet)

Mehr

Linux in NWZnet II ZIV Unix-Integration mit DCE/DFS

Linux in NWZnet II ZIV Unix-Integration mit DCE/DFS IVV Naturwissenschaften IV der Fachbereiche Biologie Chemie Physik Westfälische Wilhelms-Universität Münster Einführung in die Administration von Rechnern in der IVV WS 2005/06 Linux in NWZnet II ZIV Unix-Integration

Mehr

Dokumentation Einrichten von XEN mit etch Gast und Samba PDC

Dokumentation Einrichten von XEN mit etch Gast und Samba PDC Dokumentation Einrichten von XEN mit etch Gast und Samba PDC Installationsanleitung für Gruppe 3 (g3.loc) Server (rdf.loc) gateway0608 eth0 192.168.99.117 Subserver (g3.loc) pc05 eth0 192.168.99.105 eth0:0

Mehr

Zugriff zum Datenaustausch per scponly

Zugriff zum Datenaustausch per scponly Zugriff zum Datenaustausch per scponly Warum scponly? In der Grundkonfiguration der Musterlösung ist es notwendig, dass ein Benutzer, der die Möglichkeit haben soll von außen Dateien mit dem Server auszutauschen,

Mehr

Organisatorisches. Übungsleiter: Karsten Otto (otto@inf.fu-berlin.de) Homepage: http://www.inf.fu-berlin.de/lehre/ss06/netzsicherheit Aufgaben

Organisatorisches. Übungsleiter: Karsten Otto (otto@inf.fu-berlin.de) Homepage: http://www.inf.fu-berlin.de/lehre/ss06/netzsicherheit Aufgaben Organisatorisches Übungsleiter: Karsten Otto (otto@inf.fu-berlin.de) Homepage: http://www.inf.fu-berlin.de/lehre/ss06/netzsicherheit Aufgaben Mittwochs im Netz Vorbesprechung Freitag/Montag in der Übung

Mehr

Linux 08. Linux WS 04/05 by www.realtec.de - 1 - 1. DNS - named: in /etc/named.conf. DNS Top-Level-DNS

Linux 08. Linux WS 04/05 by www.realtec.de - 1 - 1. DNS - named: in /etc/named.conf. DNS Top-Level-DNS 1. DNS - named: in /etc/named.conf DNS Top-Level-DNS O o => keine Konfiguration: Anfragen werden an Top-Level-DNS gegeben und von dort verteilt (z.b. Europa(--> Belgien, Luxemburg, Deutschland,...), USA,...)

Mehr

webpdf für VMware SoftVision Development GmbH Kurfürstenstraße 15 36037 Fulda, Deutschland Tel.: +49 (0)661 25100-0 Fax: +49 (0)661 25100-25

webpdf für VMware SoftVision Development GmbH Kurfürstenstraße 15 36037 Fulda, Deutschland Tel.: +49 (0)661 25100-0 Fax: +49 (0)661 25100-25 webpdf für VMware SoftVision Development GmbH Kurfürstenstraße 15 36037 Fulda, Deutschland Tel.: +49 (0)661 25100-0 Fax: +49 (0)661 25100-25 E-Mail: sales@softvision.de Web: www.softvision.de Inhaltsverzeichnis

Mehr

http://www.cis.upenn.edu/~bcpierce/unison/download/stable/unison- 2.9.1/

http://www.cis.upenn.edu/~bcpierce/unison/download/stable/unison- 2.9.1/ Einführung Was ist Unison? Unison ist ein Dateisynchronisationsprogramm für Windows und Unix. Es teilt sich viele Funktionen mit anderen Programmen, wie z.b. CVS und rsync. Folgend einige Vorteile des

Mehr

Konfigurationshilfe für die Netzwerkeinstellungen

Konfigurationshilfe für die Netzwerkeinstellungen Konfigurationshilfe für die Netzwerkeinstellungen Dieses Dokument soll Sie bei der Netzwerkkonfiguration Ihrer Rechner unterstützen. Bitte melden Sie sich zunächst im Koordinatorendatendienst (KDD) an.

Mehr

DNS Server - Fedorawiki.de

DNS Server - Fedorawiki.de 1 von 5 22.05.2007 02:26 DNS Server Aus Fedorawiki.de Dieser Artikel ist noch nicht vollständig. Du kannst helfen, ihn zu bearbeiten. Dieser Artikel ist Teil der HOWTO Sammlung Die Hauptaufgabe vom Domain

Mehr

7 TCP/IP-Dienste konfigurieren

7 TCP/IP-Dienste konfigurieren 7 TCP/IP-Dienste konfigurieren In diesem Kapitel lernen Sie die Begriffe Ports,Sockets und Connections kennen (LPI 1: 109.1). den Zusammenhang der Ports von TCP/IP-Diensten mit der Datei /etc/services

Mehr

R e m o t e A c c e s s. Cyrus Massoumi

R e m o t e A c c e s s. Cyrus Massoumi R e m o t e A c c e s s Präsentation im Seminar Internet-Technologie im Sommersemester 2008 von Cyrus Massoumi I n h a l t Was versteht man unter Remote Access Unsichere Remotezugriffe TELNET Remote Shell

Mehr

ab Redirector-Version 2.14

ab Redirector-Version 2.14 Installation: FilterSurf ab Redirector-Version 2.14 Hier werden nun die Schritte erläutert, die nacheinander zu durchlaufen sind, um einen der zentralen FilterSurf -Server verwenden zu können. Die Installationsschritte

Mehr

3. Was müssen Sie tun, um von einem Windows 7 Client die Benutzereinstellungen und die Einstellungen einer bestimmten Anwendung zu exportieren?

3. Was müssen Sie tun, um von einem Windows 7 Client die Benutzereinstellungen und die Einstellungen einer bestimmten Anwendung zu exportieren? Arbeitsblätter Der Windows 7 MCTS Trainer Vorbereitung zur MCTS Prüfung 70 680 Aufgaben Kapitel 1 1. Sie möchten auf einem Computer, auf dem Windows Vista installiert ist, Windows 7 zusätzlich installieren,

Mehr

Linux Extension for AIDA64

Linux Extension for AIDA64 Konfigurationsanleitung v 1.0 30. 07. 2014. wurde von Szilveszter Tóth, für ABSEIRA GmbH., dem weltweiten Distributor der AIDA64 Produktfamilie entwickelt. Dieses Handbuch wurde von ABSEIRA GmbH. verfasst.

Mehr

Initramfs - The initial RAM filesystem

Initramfs - The initial RAM filesystem - The initial RAM filesystem Am Beispiel von Debian Linux User Group Erding 23. Mai 2012 Gliederung Einleitung 1 Einleitung 2 3 4 Überblick Einleitung Allgemeines Einleitung initramfs ist der Nachfolger

Mehr

Seminarvortrag Secure NFS

Seminarvortrag Secure NFS Seminarvortrag Secure NFS Michael Stilkerich michael.stilkerich@informatik.stud.uni-erlangen.de am 12. Mai 2003 Einleitung Das Network File System ist ein sehr eleganter Weg, gemeinsam genutzte Dateisysteme

Mehr

Dateisystem 1, Suchpfad, Befehlstypen

Dateisystem 1, Suchpfad, Befehlstypen Dateisystem 1, Suchpfad, Befehlstypen Linux-Kurs der Unix-AG Benjamin Eberle 8. Januar 2015 Was ist ein Dateisystem? Verwaltung von Dateien auf Datenträgern Beispiele: EXT3, EXT4, FAT, NTFS unter Linux

Mehr

4 Aufruf des Servers, Kommandozeilen-Optionen

4 Aufruf des Servers, Kommandozeilen-Optionen 4 Aufruf des Servers, Kommandozeilen-Optionen 4.1 Einführung In diesem Abschnitt lernen Sie verschiedene Methoden zum Start des Apache-Servers, einige der wichtigsten Kommandozeilen-Optionen und Methoden

Mehr

Dateisystem 1, Suchpfad, Befehlstypen

Dateisystem 1, Suchpfad, Befehlstypen Dateisystem 1, Suchpfad, Befehlstypen Linux-Kurs der Unix-AG Andreas Teuchert 17. Juni 2014 Was ist ein Dateisystem? Verwaltung von Dateien auf Datenträgern Beispiele: EXT3, EXT4, FAT, NTFS unter Linux

Mehr

Virtualisierung mit Virtualbox

Virtualisierung mit Virtualbox Virtualisierung mit Virtualbox Dies ist kein Howto im herkömmlichen Sinne. Genaue Anleitungen für Virtualbox gibt es im Intenet genug. Zu empfehlen ist auch das jeweils aktuelle Handbuch von Virtualbox

Mehr

Installations-Dokumentation, YALG Team

Installations-Dokumentation, YALG Team Installations-Dokumentation, YALG Team Version 8.1 1 Benötigtes Material 2 Vor der Installation 3 Beginn 4 Installation 4.1 Sicherheit 4.2 Partitionierung 4.3 Paketauswahl 4.4 Paketauswahl (fein) 5 Konfiguration

Mehr

Kernel-Module. Teile des Kernels können als Module gebaut werden. diese können im laufenden Betrieb eingebunden werden (und auch wieder entfernt)

Kernel-Module. Teile des Kernels können als Module gebaut werden. diese können im laufenden Betrieb eingebunden werden (und auch wieder entfernt) Kernel-Module Teile des Kernels können als Module gebaut werden diese können im laufenden Betrieb eingebunden werden (und auch wieder entfernt) Vorteile: kleinerer Kernel, anpassungsfähig, schnelleres

Mehr

Installationshandbuch. WeLearn Release 2.3.0. für Linux

Installationshandbuch. WeLearn Release 2.3.0. für Linux Installationshandbuch WeLearn Release 2.3.0 für Linux Oktober 2005 Das WeLearn-Team wünscht Ihnen viel Spaß und Erfolg im Arbeiten mit WeLearn. Bei Fragen und Anregungen können Sie uns unter info@welearn.at

Mehr

Update Messerli MySQL auf Linux

Update Messerli MySQL auf Linux Update Messerli MySQL auf Linux Einleitung Grundsätzlich wird beim Update der Messerli Software auf einem Linux-Server wie folgt vorgegangen: 1. Vorhandener RMI-MySQL Server wird auf Linux aktualisiert

Mehr

Collax Web Application

Collax Web Application Collax Web Application Howto In diesem Howto wird die Einrichtung des Collax Moduls Web Application auf einem Collax Platform Server anhand der LAMP Anwendung Joomla beschrieben. LAMP steht als Akronym

Mehr

Debian GNU/Linux. Unix Grundlagen und Betrieb. Christian T. Steigies

Debian GNU/Linux. Unix Grundlagen und Betrieb. Christian T. Steigies : Betrieb Unix Grundlagen und Betrieb Institut für Experimentelle und Angewandte Physik Christian-Albrechts-Universität zu Kiel Debian crash course 20.02.2007 : Betrieb Unix Grundlagen Konfigurationsdateien

Mehr

AFS / OpenAFS. Bastian Steinert. Robert Schuppenies. Präsentiert von. Und

AFS / OpenAFS. Bastian Steinert. Robert Schuppenies. Präsentiert von. Und AFS / OpenAFS Präsentiert von Bastian Steinert Und obert Schuppenies Agenda AFS Verteilte Dateisysteme, allg. Aufbau Sicherheit und Zugriffsrechte Installation Demo Vergleich zu anderen DFs Diskussion

Mehr

DSLinux Skriptbasierte Inventarisierung für Linux

DSLinux Skriptbasierte Inventarisierung für Linux DSLinux Skriptbasierte Inventarisierung für Linux www.docusnap.com TITEL DSLinux AUTOR Docusnap Consulting DATUM 21.04.2015 Die Weitergabe, sowie Vervielfältigung dieser Unterlage, auch von Teilen, Verwertung

Mehr

Linux Systemadministration

Linux Systemadministration Seminarunterlage Version: 8.04 Version 8.04 vom 6. September 2013 Dieses Dokument wird durch die veröffentlicht.. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen sind Warenzeichen

Mehr

bintec Workshop Dynamic Host Configuration Protocol Copyright 8. November 2005 Funkwerk Enterprise Communications GmbH Version 0.9

bintec Workshop Dynamic Host Configuration Protocol Copyright 8. November 2005 Funkwerk Enterprise Communications GmbH Version 0.9 bintec Workshop Dynamic Host Configuration Protocol Copyright 8. November 2005 Funkwerk Enterprise Communications GmbH Version 0.9 Ziel und Zweck Haftung Marken Copyright Richtlinien und Normen Wie Sie

Mehr

Securepoint Security Systems

Securepoint Security Systems HowTo: Virtuelle Maschine in VMware für eine Securepoint Firewall einrichten Securepoint Security Systems Version 2007nx Release 3 Inhalt 1 VMware Server Console installieren... 4 2 VMware Server Console

Mehr

VPN mit Windows Server 2003

VPN mit Windows Server 2003 VPN mit Windows Server 2003 Virtuelle private Netzwerke einzurichten, kann eine sehr aufwendige Prozedur werden. Mit ein wenig Hintergrundwissen und dem Server- Konfigurationsassistenten von Windows Server

Mehr

Installationsanleitung Tivoli Storage Manager für Linux

Installationsanleitung Tivoli Storage Manager für Linux 11. März 2009, Version 1.0 Installationsanleitung für Linux Verwaltungsdirektion Informatikdienste Installationsanleitung für Linux Inhaltsverzeichnis...1 Installation... 1 Voraussetzungen...1 Ablauf der

Mehr

Migrationsanleitung von 2.0 auf 2.1

Migrationsanleitung von 2.0 auf 2.1 Die wichtigste Neuerung von 2.0 auf 2.1 aus Sicht der Anwendungs- Migration ist die Verwendung von Maven. Mit Maven holt sich die Anwendung alle notwendigen Bibliotheken in den jeweils angegebenen Versionen

Mehr

DHCP und dynamischer Update eines DNS

DHCP und dynamischer Update eines DNS DHCP und dynamischer Update eines DNS Als Voraussetzung für diese Dokumentation wird eine funktionierende Konfiguration eines DNS Servers, mit den entsprechenden Zonefiles angenommen. Die hier verwendete

Mehr

Grundlagen DNS 1/5. DNS (Domain Name System)

Grundlagen DNS 1/5. DNS (Domain Name System) Grundlagen DNS 1/5 DNS (Domain Name System) Weltweit gibt es 13 zentrale DNS-Server (Root-Nameserver), auf denen die verschiedenen Domains abgelegt sind. Der Domönennamensraum bzw. das Domain Name Space

Mehr

Hylafax mit CAPI und Kernel 2.6 auf Debian Sarge

Hylafax mit CAPI und Kernel 2.6 auf Debian Sarge Hylafax mit CAPI und Kernel 2.6 auf Debian Lukas Mensinck First public release Version 1.0.0 Revision History Revision 1.0.0 2007.04.11 LukasMensinck Mensinck Consulting First public release of HowTo Type:

Mehr

Aufbau einer Testumgebung mit VMware Server

Aufbau einer Testumgebung mit VMware Server Aufbau einer Testumgebung mit VMware Server 1. Download des kostenlosen VMware Servers / Registrierung... 2 2. Installation der Software... 2 2.1 VMware Server Windows client package... 3 3. Einrichten

Mehr

Vernetzung von Linux und Windows

Vernetzung von Linux und Windows Vernetzung von Linux und Windows Rechnern Installation, Konfiguration, Benutzung und Anwendungsbeispiele Referent: Andre Dibowsky andre@dibowsky.net Linux User Group Datteln Vernetzung von Linux und Windows

Mehr

GeoShop Netzwerkhandbuch

GeoShop Netzwerkhandbuch Technoparkstrasse 1 8005 Zürich Tel.: 044 / 350 10 10 Fax.: 044 / 350 10 19 GeoShop Netzwerkhandbuch Zusammenfassung Diese Dokumentation beschreibt die Einbindung des GeoShop in bestehende Netzwerkumgebungen.

Mehr

Kurzanleitung. MEYTON Migrationstool. 1 Von 16

Kurzanleitung. MEYTON Migrationstool. 1 Von 16 Kurzanleitung MEYTON Migrationstool 1 Von 16 Inhaltsverzeichnis Sinn und Zweck des Migrationsprogramms...3 Die LIVE C D...3 START...3 Erste Schritte...4 Login...4 Einleitung...5 Die Bedienung...5 Das Hauptmenü...6

Mehr

Installation Messerli MySQL auf MAC OS X

Installation Messerli MySQL auf MAC OS X Installation Messerli MySQL auf MAC OS X Einleitung Grundsätzlich wird bei der Installation der Messerli Software auf einem Mac-Server wie folgt vorgegangen: 1. Angepasster RMI-MySQL Server wird auf Mac

Mehr

Gibt Daten im erweiterten Format aus. Dies beinhaltet die Angabe von Zugriffsrechten, Besitzer, Länge, Zeitpunkt der letzten Änderung und mehr.

Gibt Daten im erweiterten Format aus. Dies beinhaltet die Angabe von Zugriffsrechten, Besitzer, Länge, Zeitpunkt der letzten Änderung und mehr. ls [optionen] [namen]: ls zeigt den Inhalt von Verzeichnissen. Sind keine namen angegeben, werden die Dateien im aktuellen Verzeichnis aufgelistet. Sind eine oder mehrere namen angegeben, werden entweder

Mehr

Diskless GNU/Linux Workshop der LUGBZ http://www.lugbz.org/ Author: Karl Lunger 10.05.2003

Diskless GNU/Linux Workshop der LUGBZ http://www.lugbz.org/ Author: Karl Lunger 10.05.2003 Diskless GNU/Linux Workshop der LUGBZ http://www.lugbz.org/ Author: Karl Lunger 10.05.2003 Diskless GNU/Linux Was? Eine Maschine ohne lokalem Dateisystem X-Terminal (Prozesse der Anwendungen laufen auf

Mehr

User Mode Linux. Sven Wölfel 15. April 2005

User Mode Linux. Sven Wölfel 15. April 2005 User Mode Linux Sven Wölfel 15. April 2005 Inhalt Was ist UML? Wofür kann man UML benutzen? Funktionsweise von UML Installation von UML Netzwerk unter UML einrichten Quellen 2 Was ist UML? I User Mode

Mehr

Switching. Übung 2 System Management. 2.1 Szenario

Switching. Übung 2 System Management. 2.1 Szenario Übung 2 System Management 2.1 Szenario In der folgenden Übung werden Sie Ihre Konfiguration sichern, löschen und wieder herstellen. Den Switch werden Sie auf die neueste Firmware updaten und die Funktion

Mehr

Automatisierte Installation der ESXi Hosts (z.b. für Disaster Recovery).

Automatisierte Installation der ESXi Hosts (z.b. für Disaster Recovery). 2 Automatisierte Installation Automatisierte Installation der ESXi Hosts (z.b. für Disaster Recovery). 2.1 Übersicht Themen des Kapitels Automatisierte Installation Themen des Kapitels Übersicht automatisierte

Mehr

Icinga Teil 2. Andreas Teuchert. 25. Juli 2014

Icinga Teil 2. Andreas Teuchert. 25. Juli 2014 Icinga Teil 2 Andreas Teuchert 25. Juli 2014 1 Nagios-Plugins Programme, die den Status von Diensten überprüfen können liegen in /usr/lib/nagios/plugins/ werden von Icinga aufgerufen, geben Status über

Mehr

Linux im Windows-Netzwerk Franzis Verlag, Poing 2 2001 ISBN 3-7723-6065-3 (DM 89,95) www.linuxbu.ch

Linux im Windows-Netzwerk Franzis Verlag, Poing 2 2001 ISBN 3-7723-6065-3 (DM 89,95) www.linuxbu.ch 7HLO, X www.samba.org 5HVVRXUFHQ X Eckstein, R.; Collier-Brown, D.: Samba. Ein Datei- und Druckserver für heterogene Netzwerke O'Reilly-Verlag, Köln 2000 ISBN 3-89721-16-0 (DM 74,-) X Burre, B.; Debacher

Mehr

LOGOS Server. Version 2.40. Installationsanleitung für Linux

LOGOS Server. Version 2.40. Installationsanleitung für Linux LOGOS Server Version 2.40 Installationsanleitung für Linux Inhalt 1. Einleitung...2 2. Systemadministration...2 2.1 Systemvoraussetzungen... 2 2.1. LOGOS installieren... 2 2.2. Aktualisierung einer vorhandenen

Mehr

Tutorium 1 Systemadministration 2 - Linux Universität Hildesheim

Tutorium 1 Systemadministration 2 - Linux Universität Hildesheim Tutorium 1 Systemadministration 2 - Linux Universität Hildesheim Jens Rademacher 16.06.2014 1. Theorie: Verzeichnisbaum Eine Auswahl einiger Verzeichnisse. / # Root-Verzeichnis /home/ # Enthält alle Home-Verzeichnisse

Mehr

Die automatische Clientkonfiguration durch den DHCP-Server geschieht folgendermaßen:

Die automatische Clientkonfiguration durch den DHCP-Server geschieht folgendermaßen: Default Gateway: 172.16.22.254 Ein häufiger Fehler in den Konfigurationen liegt darin, dass der Netzanteil des Default Gateway nicht mit dem Netzanteil der IP-Adresse des Rechners übereinstimmt. 4.4 DHCP-Service

Mehr

Debian Installer Basics

Debian Installer Basics Debian Installer Basics Zinching Dang 09. Mai 2014 1 Debian Installer Debian Installer Installationsmedium für Debian verschiedene Typen: CD- und DVD-Installer: für Installation ohne oder mit langsamen

Mehr

Parallels Plesk Panel. Firewall-Modul für Parallels Plesk Panel 10 für Linux/Unix. Administratorhandbuch

Parallels Plesk Panel. Firewall-Modul für Parallels Plesk Panel 10 für Linux/Unix. Administratorhandbuch Parallels Plesk Panel Firewall-Modul für Parallels Plesk Panel 10 für Linux/Unix Administratorhandbuch Copyright-Vermerk Parallels Holdings, Ltd. c/o Parallels International GmbH Vordergasse 59 CH-Schaffhausen

Mehr

Netzwerk Linux-Kurs der Unix-AG

Netzwerk Linux-Kurs der Unix-AG Netzwerk Linux-Kurs der Unix-AG Andreas Teuchert 16. Juli 2013 Netzwerk-Protokolle legen fest, wie Daten zur Übertragung verpackt werden unterteilt in verschiedene Schichten: Anwendungsschicht (z. B. HTTP,

Mehr

Security. Stefan Dahler. 6. Zone Defense. 6.1 Einleitung

Security. Stefan Dahler. 6. Zone Defense. 6.1 Einleitung 6. Zone Defense 6.1 Einleitung Im Folgenden wird die Konfiguration von Zone Defense gezeigt. Sie verwenden einen Rechner für die Administration, den anderen für Ihre Tests. In der Firewall können Sie entweder

Mehr

Byte-Taxi. Bedienungsanleitung. Seite 1 von 8

Byte-Taxi. Bedienungsanleitung. Seite 1 von 8 Byte-Taxi Bedienungsanleitung Seite 1 von 8 Inhaltsverzeichnis 1. Beschreibung 3 2. Systemvoraussetzungen 4 3. Installationsanleitung 5 4. Bedienung 6 5. Infos & Kontakt 8 Seite 2 von 8 1. Beschreibung

Mehr

Installationsanleitung für Haufe Advolux Kanzleisoftware ab Version 2.5 (Linux)

Installationsanleitung für Haufe Advolux Kanzleisoftware ab Version 2.5 (Linux) Installationsanleitung für Haufe Advolux Kanzleisoftware ab Version 2.5 (Linux) Verfasser : Advolux GmbH, AÖ Letze Änderung : 20.04.2012 Version : v2 1 Inhaltsverzeichnis 1. Hardware-Voraussetzungen...

Mehr

PLESK 7 FÜR WINDOWS INSTALLATIONSANLEITUNG

PLESK 7 FÜR WINDOWS INSTALLATIONSANLEITUNG PLESK 7 FÜR WINDOWS INSTALLATIONSANLEITUNG Copyright (C) 1999-2004 SWsoft, Inc. Alle Rechte vorbehalten. Die Verbreitung dieses Dokuments oder von Derivaten jeglicher Form ist verboten, ausgenommen Sie

Mehr

cs106 Informatiklabor Teil 1: Java-Installation

cs106 Informatiklabor Teil 1: Java-Installation Herbstsemester 2009 cs106 Informatiklabor Teil 1: Java-Installation Florian Zeller Vorgehen und Ziele Wöchentlich eine Übung Unterstützte Bearbeitung während den Übungsstunden Austausch mit älteren Semestern

Mehr

Befehl Beispiel Beschreibung An- und Abmelden: es geht aber auch einfach: reboot. es geht aber auch einfach. halt. Strg + l (kleines L) mkdir --help

Befehl Beispiel Beschreibung An- und Abmelden: es geht aber auch einfach: reboot. es geht aber auch einfach. halt. Strg + l (kleines L) mkdir --help Liste der wichtigsten Linux-Befehle Befehl Beispiel Beschreibung An- und Abmelden: logout shutdown -r now shutdown -h now clear auch möglich Tastenkürzel: Strg + d es geht aber auch einfach: reboot es

Mehr

storage management (c) Till Hänisch 2003, BA Heidenheim

storage management (c) Till Hänisch 2003, BA Heidenheim storage management (c) Till Hänisch 2003, BA Heidenheim warum? haenisch@susi:~ > df Filesystem 1k-blocks Used Available Use% Mounted on /dev/sda3 35115800 16351708 16980076 50% / /dev/sda1 23300 3486 18611

Mehr

Inbetriebnahme des Oracle-Einschubs für DBF, DBB und DBP Markus Rohner

Inbetriebnahme des Oracle-Einschubs für DBF, DBB und DBP Markus Rohner <rom@zhwin.ch> Inbetriebnahme des Oracle-Einschubs für DBF, DBB und DBP Markus Rohner Version: 1.0.2 Datum: 10.3.2004 08:28 1 Einleitung 1.1 Über diese Anleitung Diese Anleitung ist als Hilfe bei der Inbetriebnahme

Mehr

Sysadmin Day 2010. Windows & Linux. Ralf Wigand. MVP Directory Services KIT (Universität Karlsruhe)

Sysadmin Day 2010. Windows & Linux. Ralf Wigand. MVP Directory Services KIT (Universität Karlsruhe) Sysadmin Day 2010 Windows & Linux just good friends? friends!!! Ralf Wigand MVP Directory Services KIT (Universität Karlsruhe) Voraussetzungen Sie haben ein Active Directory Sie haben einen Linux Client

Mehr

Vernetzter Anschluss von Heidenhain - Steuerungen an MCIS DNC Cell / Plant

Vernetzter Anschluss von Heidenhain - Steuerungen an MCIS DNC Cell / Plant Vernetzter Anschluss von Heidenhain - Steuerungen an MCIS DNC Cell / Plant Inhalt: 1 EINRICHTEN DERZUGRIFFSBERECHTIGUNGEN AUF DEM DNC-SERVER (BEISPIEL: WIN2003 SERVER):... 2 1.1 Installation der Services

Mehr

KURZANLEITUNG DUPLICITY MIT CLOUD OBJECT STORAGE

KURZANLEITUNG DUPLICITY MIT CLOUD OBJECT STORAGE KURZANLEITUNG DUPLICITY MIT CLOUD OBJECT STORAGE Version 1.12 01.07.2014 SEITE _ 2 INHALTSVERZEICHNIS 1. Einleitung...Seite 03 2. Einrichtung des Systems...Seite 04 3. Erzeugen eines Backup-Skripts...Seite

Mehr

Arktur-Netz mit festen IPs

Arktur-Netz mit festen IPs Arktur-Netz mit festen IPs Standardmäßig ist Arktur so eingestellt, dass die Clients im Netz ihre Netzwerkadressen (IP-Adressen) automatisch über den DHCP-Dienst erhalten (DHCP = Dynamic Host Configuration

Mehr

Installation Messerli MySQL auf Linux

Installation Messerli MySQL auf Linux Installation Messerli MySQL auf Linux Einleitung Grundsätzlich wird bei der Installation der Messerli Software auf einem Linux-Server wie folgt vorgegangen: 1. Angepasster RMI-MySQL Server wird auf Linux

Mehr

A Kompilieren des Kernels... 247. B Lineare Listen in Linux... 251. C Glossar... 257. Interessante WWW-Adressen... 277. Literaturverzeichnis...

A Kompilieren des Kernels... 247. B Lineare Listen in Linux... 251. C Glossar... 257. Interessante WWW-Adressen... 277. Literaturverzeichnis... 1 Einführung................................................ 1 1.1 Was ist ein Betriebssystem?............................... 1 1.1.1 Betriebssystemkern................................ 2 1.1.2 Systemmodule....................................

Mehr

Diese Anleitung bezieht sich auf FixFoto, V 3.40. In älteren oder neueren Versionen könnte die Arbeitsweise anders sein.

Diese Anleitung bezieht sich auf FixFoto, V 3.40. In älteren oder neueren Versionen könnte die Arbeitsweise anders sein. Pfade einstellen Stand: Dezember 2012 Diese Anleitung bezieht sich auf FixFoto, V 3.40. In älteren oder neueren Versionen könnte die Arbeitsweise anders sein. Diese Anleitung soll zeigen, wie man Pfad-Favoriten

Mehr

Laufwerke unter Linux - Festplatten - - USB Sticks - September 2010 Oliver Werner Linuxgrundlagen 1

Laufwerke unter Linux - Festplatten - - USB Sticks - September 2010 Oliver Werner Linuxgrundlagen 1 Laufwerke unter Linux - Festplatten - - USB Sticks - September 2010 Oliver Werner Linuxgrundlagen 1 Wie wird auf Festplatten zugegriffen? Es gibt nur einen Verzeichnisbaum, siehe Verzeichnisse Es gibt

Mehr

Prozesse und Logs Linux-Kurs der Unix-AG

Prozesse und Logs Linux-Kurs der Unix-AG Prozesse und Logs Linux-Kurs der Unix-AG Andreas Teuchert 27./28. Juni 2012 Prozesse unter Linux gestartete Programme laufen unter Linux als Prozesse jeder Prozess hat eine eindeutige Prozess-ID (PID)

Mehr

Hyper-V Grundlagen der Virtualisierung

Hyper-V Grundlagen der Virtualisierung Grundlagen der Virtualisierung Was ist Virtualisierung? Eine Software-Technik, die mehrere Betriebssysteme gleichzeitig auf dem Rechner unabhängig voneinander betreibt. Eine Software-Technik, die Software

Mehr

QEMU Der Rechner im Rechner

QEMU Der Rechner im Rechner QEMU Der Rechner im Rechner Christian Perle, secunet Security Networks AG, NL Dresden 1 Vortragsübersicht Was ist QEMU? Einsatzszenarien QEMU installieren / Beispielaufruf Virtuelles Netzwerk Snapshot-Modus

Mehr

Kurs 70-291 Notizen Rene Dreher www.renedreher.de -DNS (Domain Name System)

Kurs 70-291 Notizen Rene Dreher www.renedreher.de -DNS (Domain Name System) -DNS (Domain Name System) Das DNS ist ein weltweit auf tausende von Servern verteilter hierarchischer Verzeichnisdienst, der den Namensraum des Internets verwaltet. Dieser Namensraum ist in so genannte

Mehr

Anleitung für zwei C++ - Openmp - Beispiele auf der NWZSuperdome

Anleitung für zwei C++ - Openmp - Beispiele auf der NWZSuperdome Anleitung für zwei C++ - Openmp - Beispiele auf der NWZSuperdome (Timo Heinrich, t_hein03@uni-muenster.de) Inhaltsverzeichnis: 0.Einleitung 1.Teil: Helloworldprogramm 1.1 Quellcode: Helloworld.cpp 1.2

Mehr

Eine hochverfügbare Firewall mit iptables und fwbuilder. Secure Linux Administration Conference, 11. Dec 2008

Eine hochverfügbare Firewall mit iptables und fwbuilder. Secure Linux Administration Conference, 11. Dec 2008 Eine hochverfügbare Firewall mit iptables und fwbuilder Secure Linux Administration Conference, 11. Dec 2008 Dr. Michael Schwartzkopff HA Firewall mit fwbuilder, SLAC 2008 / 1 Eine einfache Firewall Eine

Mehr

Dokumentation. Servervirtualisierung mit XEN und open SUSE 11.1

Dokumentation. Servervirtualisierung mit XEN und open SUSE 11.1 Dokumentation Servervirtualisierung mit XEN und open SUSE 11.1 Inhalt...1 Partitionierung...1...2 Netzwerkkonfiguration...2 VNC-Server...5 Updates...7 Fernzugriff...7 XEN Hypervisor einrichten...9 Sicherung

Mehr

Installationsanleitung Tivoli Storage Manager für Mac OS

Installationsanleitung Tivoli Storage Manager für Mac OS 11. März 2009, Version 1.0 Installationsanleitung für Mac OS X Verwaltungsdirektion Informatikdienste Installationsanleitung für Mac OS Inhaltsverzeichnis...1 Installation... 1 Voraussetzungen...1 Version

Mehr

Tapps mit XP-Mode unter Windows 7 64 bit (V2.0)

Tapps mit XP-Mode unter Windows 7 64 bit (V2.0) Tapps mit XP-Mode unter Windows 7 64 bit (V2.0) 1 Einleitung... 2 2 Download und Installation... 3 2.1 Installation von WindowsXPMode_de-de.exe... 4 2.2 Installation von Windows6.1-KB958559-x64.msu...

Mehr

High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO

High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO Anastasios Stomas SFI Technology Services AG 12. März 2003 anastasios.stomas@sfi.ch Seite 1 Hintergrund INHALT Cluster-

Mehr

IP Adressen & Subnetzmasken

IP Adressen & Subnetzmasken IP Adressen & Subnetzmasken Jörn Stuphorn stuphorn@rvs.uni-bielefeld.de Universität Bielefeld Technische Fakultät Stand der Veranstaltung 13. April 2005 Unix-Umgebung 20. April 2005 Unix-Umgebung 27. April

Mehr

Installationsanleitung für DoRIS unter Linux Inhaltsverzeichnis

Installationsanleitung für DoRIS unter Linux Inhaltsverzeichnis Installationsanleitung für DoRIS unter Linux Seite 1 Installationsanleitung für DoRIS unter Linux Inhaltsverzeichnis Installationsanleitung für DoRIS unter Linux... 1 Vorbemerkungen... 1 Benötigte Komponenten

Mehr

Oracle VM 3 Manager als virtuelle Maschine auf dem Oracle VM 3 Server

Oracle VM 3 Manager als virtuelle Maschine auf dem Oracle VM 3 Server Oracle VM 3 Manager als virtuelle Maschine auf dem Oracle VM 3 Server Martin Bracher Senior Consultant 26.12.2011 Oracle VM die Virtualisierungslösung von Oracle besteht aus zwei Komponenten. Einerseits

Mehr

Knoppix-Remastering 18. 10. 2003. Knoppix-Remastering. Christian Perle, secunet Security Networks AG, NL Dresden 1

Knoppix-Remastering 18. 10. 2003. Knoppix-Remastering. Christian Perle, secunet Security Networks AG, NL Dresden 1 Knoppix-Remastering Christian Perle, secunet Security Networks AG, NL Dresden 1 Übersicht Wie bootet Knoppix? Anpassung durch Autostart: Optionale Datei KNOPPIX/knoppix.sh auf der CD Permanente Änderung

Mehr

DocuWare unter Windows 7

DocuWare unter Windows 7 DocuWare unter Windows 7 DocuWare läuft unter dem neuesten Microsoft-Betriebssystem Windows 7 problemlos. Es gibt jedoch einige Besonderheiten bei der Installation und Verwendung von DocuWare, die Sie

Mehr

Material zum Grundlagenpraktikum ITS. eine kleine Linux-Befehlsreferenz. Stand: Oktober 2007 zusammengestellt von: Cornelia Menzel Version 1.

Material zum Grundlagenpraktikum ITS. eine kleine Linux-Befehlsreferenz. Stand: Oktober 2007 zusammengestellt von: Cornelia Menzel Version 1. Material zum Grundlagenpraktikum ITS eine kleine Linux-Befehlsreferenz Stand: Oktober 2007 zusammengestellt von: Cornelia Menzel Version 1.0 Lehrstuhl für Netz- und Datensicherheit Ruhr-Universität Bochum

Mehr

Server-Seite. Inhaltsverzeichnis. BackupPC

Server-Seite. Inhaltsverzeichnis. BackupPC Dieser Artikel ist Teil der HOWTO Sammlung Dieses Howto beschriebt die Konfiguration von BackupPC, einer Software die eine zentrale Erstellung und Verwaltung von Backups verschiedener Computer ermöglicht.

Mehr

AFS Backup und Recover nicht nur für (Legato) NetWorker

AFS Backup und Recover nicht nur für (Legato) NetWorker AFS Backup und Recover nicht nur für (Legato) NetWorker Wolfgang Friebel, DESY 28.9.2006 1 Backup Inhalt Schematischer Ablauf Volle und inkrementelle Backups Backup auf Disk Backup auf Tape Recover Recover

Mehr

Leitfaden Datensicherung und Datenrücksicherung

Leitfaden Datensicherung und Datenrücksicherung Leitfaden Datensicherung und Datenrücksicherung Inhaltsverzeichnis 1. Einführung - Das Datenbankverzeichnis von Advolux... 2 2. Die Datensicherung... 2 2.1 Advolux im lokalen Modus... 2 2.1.1 Manuelles

Mehr

Wie benutzt der NetWorker Remote Procedure Calls (RPC)?

Wie benutzt der NetWorker Remote Procedure Calls (RPC)? NetWorker - Allgemein Tip 298, Seite 1/7 Wie benutzt der NetWorker Remote Procedure Calls (RPC)? Der NetWorker - wie jede andere Client/Server (Backup) Software - benutzt immer diese zwei grundlegenden

Mehr

Server Installation 1/6 20.10.04

Server Installation 1/6 20.10.04 Server Installation Netzwerkeinrichtung Nach der Installation müssen die Netzwerkeinstellungen vorgenommen werden. Hierzu wird eine feste IP- Adresse sowie der Servername eingetragen. Beispiel: IP-Adresse:

Mehr

Betriebssysteme. 4y Springer. Eine kompakte Einführung mit Linux. Albrecht Achilles. Mit 31 Abbildungen

Betriebssysteme. 4y Springer. Eine kompakte Einführung mit Linux. Albrecht Achilles. Mit 31 Abbildungen Albrecht Achilles 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Betriebssysteme Eine kompakte Einführung mit Linux

Mehr

EasyDIS-base-44-v1.0.nrg GT1_v44_programs.iso (falls vorhanden) K+DCAN Interface von MY-OBD2.COM Shop

EasyDIS-base-44-v1.0.nrg GT1_v44_programs.iso (falls vorhanden) K+DCAN Interface von MY-OBD2.COM Shop EasyDIS-base-44-v1.0.nrg GT1_v44_programs.iso (falls vorhanden) K+DCAN Interface von MY-OBD2.COM Shop Grundinstallation EasyDIS-base-44-v1.0 Eine korrekte Installation von Vmware sollte wie rechts abgebildet

Mehr

OP-LOG www.op-log.de

OP-LOG www.op-log.de Verwendung von Microsoft SQL Server, Seite 1/18 OP-LOG www.op-log.de Anleitung: Verwendung von Microsoft SQL Server 2005 Stand Mai 2010 1 Ich-lese-keine-Anleitungen 'Verwendung von Microsoft SQL Server

Mehr

Automount und Autofs

Automount und Autofs Automount und Autofs Autor: Florian Frank (florian@pingos.org) Autor: Guido Socher (guido@linuxfocus.org) Autor: Frédéric Raynal (pappy@users.sourceforge.net) Formatierung: Florian Frank (florian@pingos.org)

Mehr