Multi-Site Scheduling

Größe: px
Ab Seite anzeigen:

Download "Multi-Site Scheduling"

Transkript

1 Seminar zur Projektgruppe: Do it yourself upb.de-supercomputer Multi-Site Scheduling Markus Zajac Universität Paderborn Abstract Diese Ausarbeitung widmet sich dem Thema: Multi-Site Scheduling. Zuerst wird das Schedulingkonzept in Verbindung mit dem Grid Computing gebracht. Danach wird ein allgemeiner Algorithmus für Multi-Site Scheduling vorgestellt. Anschließend wird auf das GrADS System und dessen Scheduler eingegangen.

2 Inhalt 1. Einleitung Motivation Problembeschreibung Grundlagen Site Modell Scheduling Single-Site Scheduling Multi-Site Scheduling Einsatz in HPC Ressource Management Systemen Multi-Site Scheduling Szenarios Job Sharing-Szenario Multi-Site-Szenario Algorithmus Parameter Ablauf Overhead GrADS System Architektur und Funktionsweise Scheduler Zusammenfassung...17 Literatur

3 1. Einleitung 1.1 Motivation Rechenintensive und zeitkritische Aufgaben wie Wettervorhersage und verschiedene Simulationen z.b. Strömungssimulationen (Auto, Flugzeug,...) sollen möglichst schnell berechnet werden. Diese Art von Aufgaben sollen an einer Stelle (ein dafür bestimmter PC, bzw. Terminals o.ä.) in Auftrag gegeben werden. Bevor die Aufgabe ausgeführt werden kann, müssen die entsprechenden Ressourcen ermittelt werden. Dabei spielt es für den Benutzer keine Rolle welche, Ressourcen benutzt werden und wo sich diese befinden. Wichtig ist hier nur das Endergebnis. 1.2 Problembeschreibung Aufgaben wie in 1.1 angegeben werden nicht auf einem einzigen Rechner gerechnet, sondern auf einer Menge von Rechnern (Grid), die geographisch verteilt sind. Diese Mengen von Rechnern werden von z.b. verschiedenen Instituten, Universitäten, u. ä. Organisationen zur Verfügung gestellt. Alle diese Rechner werden als Ressourcen angesehen und bilden zusammen ein Netzwerk. Das Rechnen von Aufgaben in diesem Netzwerk wird als Grid Computing bezeichnet. Wird eine Aufgabe in Auftrag gegeben, so muss bestimmt werden, auf welchen Rechnern diese überhaupt gerechnet werden kann. Hier kommt der Multi-Site Scheduler zum Einsatz. Er muss entscheiden, ob die Aufgabe überhaupt gerechnet werden kann und falls ja, dann muss er die richtige Menge von Rechnern für diese Aufgabe bestimmen. Dabei müssen natürlich die bereits laufenden Anwendungen berücksichtigt werden. Außerdem muss der Scheduler die Zustände aller Rechner überwachen um für neue Aufgaben die richtigen Scheduling-Entscheidungen zu treffen. Es sollen ebenfalls laufende Applikationen überwacht werden und gegebenenfalls einer anderen Menge von Rechnern zugeordnet werden (Migration), falls sich so die Leistung verbessern lässt. Für diese Scheduling-Verfahren existieren Algorithmen. Ein allgemeiner Algorithmus, sowie ein konkretes System werden in dieser Ausarbeitung vorgestellt. 3

4 2. Grundlagen 2.1 Site Modell Das Grid besteht aus Mengen von Rechnern, die als Sites [3] bezeichnet werden. Jede Site besitzt eine parallele Maschine [3] (also ein MPP System), welche aus mehreren Knoten besteht. Die Maschinen und ihre Knoten sind bis auf die Größe (d.h. Anzahl der Knoten) homogen. Jeder Knoten besitzt eine vollständige Hardwareausstattung (also Speicher und Prozessor). Die Knoten sind über ein Hochgeschwindigkeitsnetzwerk untereinander verbunden. Jede Site hat also ihre eigenen Ressourcen und verfügt ebenfalls über einen eigenen lokalen Scheduler. Die Sites können kombiniert werden und stellen dem Grid die Ressourcen zur Verfügung. 2.2 Scheduling Scheduling im Grid bezeichnet die Zuordnung der Jobs an die Ressourcen. Für Grids wurden Schedulingalgorithmen entwickeln, die einem Job die entsprechenden Ressourcen zuweisen, d.h. ein Scheduler findet eine Liste mit entsprechenden Maschine [4]. Scheduling kann auf zwei Ebenen betrachtet werden, einmal Scheduling innerhalb einer Site und Scheduling auf Grid Ebene im Multi-Site Scheduler Single-Site Scheduling Dieses Szenario beschreibt das Scheduling innerhalb einer Site. Hier werden nur die lokalen Ressourcen verwendet und den Benutzern zur Verfügung gestellt [3]. Alle eingehenden Jobs werden an den lokalen Scheduler geleitet. Dieser verwaltet die Ressourcen einer Site und teilt diese nicht mit anderen Sites. Im Zusammenhang mit Grid Computing bekommen die lokalen Site-Scheduler Jobs von einem Multi-Site Scheduler [2] und sind dann für die Ausführung des Jobs in einer Site verantwortlich. 4

5 2.2.2 Multi-Site Scheduling Beim Multi-Site Scheduling handelt es sich um das Zuweisen der Jobs auf Gridebene, d.h. Ausführung der Jobs auf unterschiedlichen Sites. Alle Jobs (egal ob lokal in einer Site oder direkt eingegeben wurden) werden an einen Multi- Site Scheduler (auch Grid Scheduler) weitergeleitet [3]. Dieser teilt die Jobs auf die Sites auf. Der lokale Scheduler ist danach für das Starten des Jobs verantwortlich. Es handelt sich hier um ein sog. Online- Szenario, d.h. wenn ein Job ankommt, entscheidet der Scheduler ob dieser auf den Grid Ressourcen ausgeführt wird oder nicht. Wird der Job angenommen, dann muss er zu Ende gerechnet werden. Jobs, die nicht sofort gerechnet werden können, kommen in eine Warteschlange. Ein Backfilling-Algorithmus verwaltet die Jobs in der Queue und optimiert FCFS [5]. Entscheidet der Scheduler, dass ein Job angenommen wird, dann wird dieser an best-mögliche Computerressourcen im Grid weitergeleitet [7]. Der Begriff best-mögliche Ressorcen kann auf Hardwarekomponenten also die Computer, aber auch installierte Software und Verfügbarkeit des Systems bezogen werden. Ziele von Multi-Site Scheduling [6]: Effiziente Nutzung vorhandener Ressourcen Zugang zu Ressourcen, die lokal nicht verfügbar sind Kombination der Ressourcen für große Probleme Ein Multi-Site Scheduler hat die alleinige Kenntnis über die Auslastung eines Systems, so dass neue Jobs auf dieser Grundlage auf die Maschinen verteilt werden 5

6 2.3 Einsatz in HPC Ressource Management Systemen Ein Ressource Management System (RMS) stellt dem Benutzer eine Menge von Ressourcen [8] wie z.b. Knoten (Rechner), Softwareressourcen u.a. zur Verfügung. Gibt ein Benutzer ein Job ein, dann müssen auch die Ressourcen bestimmt werden. Ein RMS benutzt einen Scheduler. Diffuse Requests: Es werden zwei Varianten unterschieden. Entweder spezifiziert der Benutzer die Ressourcen, oder das RMS optimiert die vorausgesetzten Ressourcen selbst [8]. Gibt ein Benutzter die Spezifikationen für einen Job ein, dann handelt es sich um Bereichangaben wie z.b. es werden 32 bis 128 Prozessoren benötigt, oder ähnliche Angaben. Dann prüft der Scheduler, ob genügend Ressourcen vorhanden sind. Sind genügend Ressourcen vorhanden, dann werden diese mit den spezifischen Benutzerangaben abgeglichen, d.h. die Ressourcen werden durch eine Komponente Optimizer optimiert, wie die Abbildung 1 zeigt. Die Pfeile geben den Kontrollfluss an. Danach kann der Scheduler den Job verteilen. Abb. 1 RMS (Quelle: Scheduling in HPC Resource Management Systems [8]) Negotiation: Hiermit ist gemeint, dass zusätlich die Applikationen selbst nach Ressourcen fragen können [8], bzw. eine Verhandlung mit dem User stattfindet. Diffuse Requests erleichtern diese Prozedur. In diesem Fall nutzt eine Applikation den folgenden Kontrollfluss: 1,2,3,6. 6

7 3. Multi-Site Scheduling 3.1 Szenarios Die Szenarios beschreiben die Situation, wenn ein Multi-Site Scheduler bzw. das Grid einen Job bekommt, welcher die Ressourcen des Grids nutzen möchte. Für Multi-Site Scheduling existieren zwei Szenarios, die sich durch die Art der Auswahl von Sites unterscheiden Job Sharing-Szenario Alle eingehenden Jobs werden an den Multi-Site Scheduler weitergeleitet. Dieses Szenario Verfolgt die BestFit-Strategie bei der Maschinenauswahl [3]. Die Abbildung 2 zeigt die schematische Vorgehensweise dieses Szenarios. Abb. 2 Job Sharing-Szenario (Quelle: On Advantages of Grid Computing for Parallel Job Scheduling [3]) 7

8 Der Scheduler bestimmt zuerst eine Maschine für den Job. Bei der Strategie BestFit wird die Maschine gewählt, die eine kleinstmögliche Anzahl an Ressourcen übrig lässt, wenn der Job auf dieser Maschine gestartet wird. Danach findet die Zuweisung der Zeit statt, d.h. der Job bekommt für eine bestimmte Zeit eine Menge der Knoten der Maschine (siehe 2.1) zur Verfügung. So hat der Multi-Site Scheduler Kenntnis drüber, wann ein anderer Job auf dieser Site gestartet werden kann. Das entscheidende ist, dass alle Jobs auf unterschiedlichen Sites ausgeführt werden [3], jedoch immer nur auf einer einzelnen Multi-Site-Szenario Dieses Szenario unterscheidet sich von dem vorherigen in der Hinsicht, dass die Jobs jetzt über die Sitegrenzen hinaus ausgeführt werden können, wie Abbildung 3 schematisch zeigt. Dabei wird der markierte Job im Multi-Site Modus ausgeführt. Abb. 3 Multi-Site-Szenario (Quelle: On Advantages of Grid Computing for Parallel Job Scheduling [3]) 8

9 Die Sites können hier kombiniert werden und so ihre Ressourcen zur Verfügung stellen. Allerdings wird hierdurch der Kommunikationsaufwand (Overhead) erheblich größer (siehe 3.2), weil Weitverkehrsnetze (WAN) aufgrund der geographischen Lage der Sites benutzt werden. Es wird folgendermaßen vorgegangen: Zuerst versucht der Scheduler eine Site mit der entsprechenden Menge von Ressourcen für den eingehenden Job zu finden. Existiert so eine Site nicht, dann teilt der Scheduler den Job auf die Ressourcen verschiedener Sites auf [3]. Dazu werden alle Sites in absteigender Reihenfolge nach Anzahl freier Ressourcen sortiert. Danach werden in dieser Reihenfolge die Ressourcen der Sites zusammengefasst. Vorteil dieser Vorgehensweise ist, dass die Anzahl benutzter Sites minimiert wird, so dass der Kommunikationsaufwand durch die Verwendung von WAN-Netzwerken verringert wird. 3.2 Algorithmus Der im Folgenden vorgestellte Algorithmus für Multi-Site Scheduling [2] arbeitet mit Einschränkungen bzgl. Fragmentierung (siehe 3.2.1) eines Jobs während des Schedulingsvorgangs Parameter Der Algorithmus braucht für jeden Job die folgenden beiden Parameter: 1. lower bound: Dieser Parameter begrenzt die Jobs, die auf verschiedene Sites zerlegt (fragmentiert) werden können bzgl. der Mindestanzahl benötigter Prozessoren [2]. 2. fragments: Dieser Parameter gibt die maximale Anzahl an, in die ein Job fragmentiert (also max. Anzahl der Sites) werden kann [2]. Dabei können für unterschiedlich große Jobs (d.h. Anzahl der CPU s) unterschiedliche Limitierungen bezüglich der maximalen Fragmentauswahl angegeben werden Ablauf Der Schedulingprozess ist in Abbildung 4 [2] dargestellt. Prinzipiell kann man feststellen, dass es den Algorithmus in der adaptiven und nicht adaptiven Variante gibt. 9

10 Schritt 1 Schritt 2 Schritt 3 Schritt 4 Schritt 5 Schritt 6.1 Schritt 6.2 Abb. 4 Algorithmus für Multi-Site Scheduling (Quelle: Enhanced Algorithms for Multi-Site Scheduling [2]) 10

11 Der Algorithmus besteht aus folgenden Schritten: 1. Überprüfung der Ressourcen: An dieser stelle wird überprüft, ob das Grid genügend freie Ressourcen hat. Falls nicht genug Ressourcen zur Verfügung stehen, dann wird der Job in eine Queue gestellt. 2. Es wird überprüft, ob der Job auf einer Maschine (d.h. auf einer Site) ausgeführt werden kann. Falls ja, dann wird dem Job mittels der BestFit Strategie eine Maschine zugeordnet. 3. Falls der Job nicht auf einer Site gerechnet werden kann, dann wird die Anzahl der benötigten Sites (Fragmente) ermittelt. Dazu wird eine Liste der Maschinen nach freien Ressourcen in absteigender Reihenfolge ermittelt. 4. Der lower bound Parameter wird überprüft. Der Job wird erst im Multi-Site- Modus ausgeführt, wenn eine Mindestanzahl von Prozessoren benötigt wird, ansonsten wird er in die Queue eingereiht. 5. Der Parameter fragments wird überprüft. Falls die zur für den Job erlaubte Anzahl an Fragmenten kleiner als die benötigte Mindestanzahl ist, kommt der Job ebenfalls in die Queue. 6. Hier wird zwischen adaptivem und nicht adaptivem Vorgehen unterschieden. 6.1 Adaptiver Fall: Zuerst werden die frühest möglichen Endzeitpunkte der Ausführung des Jobs auf einer Maschine und im Multi-Site Modus berechnet. Bei Ausführung auf einer Maschine wird die Wartezeit mit einkalkuliert, während es im Multi-Site Modus keine Wartezeit gibt, da der Job sofort ausgeführt wird. Allerdings wird der Endzeitpunkt durch die Berücksichtigung des Kommunikationsaufwandes auch länger. Kann der Job auf einer Maschine schneller ausgeführt werden als im Multi-Site Modus, dann wird er in die Queue gestellt. Der Algorithmus ist in der Entscheidung adaptiv, ob ein Job im Multi-Site Modus ausgeführt wird, oder der Job zu einem späteren Zeitpunkt auf einer Maschine ausgeführt wird. Der spätere Start der Ausführung ist aber auch von den sich in der Queue befindlichen Jobs abhängig. 6.2 Nicht adaptiver Fall: Der Job wird direkt im Multi-Site Modus gestartet. Jobs, die während der einzelnen Schritte des Algorithmus warten müssen, in eine Queue gestellt werden. Eine Queue funktioniert in der Regel nach dem FCFS Prinzip, d.h. der Job der zuletzt in die Queue kommt muss am längsten warten. Dieses ist nicht immer sinnvoll, denn es kann z.b. vorkommen, dass der erste Job in der Queue (der als nächster bedient wird) nicht die passenden Ressourcen bekommen kann die er braucht, aber dafür ein Job dahinter. Backfilling-Algorithmen optimieren das FCFS Prinzip. Die prinzipielle Idee ist, dass ein Job, der sich nicht an der ersten Stelle in der Queue befindet, trotzdem eher dran kommen kann als der erste [5]. Konservative Backfilling-Algorithmen erlauben es wartenden Jobs früher dranzukommen, wenn die Jobs mit höheren Prioritäten nicht verzögert werden. EASY-Backfilling dagegen erlaubt es den Jobs wann immer es möglich ist sich vorwärts in der Queue zu bewegen. 11

12 3.2.3 Overhead Um die Laufzeit eines Jobs im Multi-Site Modus zu bestimmen, muss der Begriff Overhead erläutert werden. Jobs, die in diesen Modus ausgeführt werden, haben einen höheren Kommunikationsaufwand gegenüber der Ausführung auf einer Site. Diese Kommunikation wird als Overhead bezeichnet. Der Overhead wird noch mehr erhöht, wenn über langsame Netzwerke (WAN) kommuniziert wird [3]. Der Obverhead wird mit dem Parameter p angegeben [2], wobei dieser Werte zwischen 0 und 40% annehmen kann. Der Parameter r bezeichnet die Laufzeit eines Jobs auf einer Site. Die neue Laufzeit eines Jobs im Multi-Site Modus unter der Berücksichtigung des Overheads wird mit r msm bezeichnet. Dieser Wert wird folgendermaßen berechnet: r msm = (1 + p) * r. 3.3 GrADS System In diesem Kapitel wird das GrADS (Grid Application Development Software) System [9] vorgestellt, welches verteiltes Rechnen ermöglicht. Das Projekt (Entwickelt 1999 in den USA) wurde mit dem Ziel entwickelt, hauptsächlich wissenschaftliche Berechnungen durchzuführen und den Forschern Zugang zum Grid zu gewährleisten. Eine Anwendung hierfür ist die numerische Bibliothek ScaLAPACK [9]. Diese Bibliothek führt mathematische Operationen auf Matrizen durch und wurde für die Nutzung auf einem verteilten Systems entworfen. Die Ressourcen werden GrADS von verschiedenen Instituten zur Verfügung gestellt. Wird ein Job in Auftrag gegeben, dann muss er auf die Ressourcen verteilt werden. Die Ressourcen, die von den Instituten zur Verfügung gestellt werden, werden als Sites betrachtet. Das System braucht also einen Multi-Site Scheduler (GrADS Scheduler), damit alle diese Ressourcen effizient ausgenutzt werden können. Im folgenden wird die Architektur und der Scheduler unter der Verwendung von ScaLAPACK beschrieben. Damit das System und der Scheduler richtig funktionieren können, wurden zu dem GrADS System zwei weitere Projekte involviert. 1) Globus MetaDirectory Service (MDS): Dieser Service ist eine Schnittstelle zu den Informationsressourcen des Grids [9]. Dieser Service wird verwendet, um Maschinen des GrADS Systems zu ermittelt, die betriebsbereit sind [1], d.h. Maschinen, auf denen ein Job potentiell gerechnet werden kann. 2) Network Weather Service (NWS): Dieser Dienst wird zu Vorhersage des Systemzustandes benutzt [9]. GrADS verwendet diesen Dienst, um das geschätzte Verhalten einer Menge von Maschinen bezüglich der Bandbreite zu bestimmen. 12

13 3.3.1 Architektur und Funktionsweise In der Abbildung 5 ist die Architektur [1] des Systems dargestellt und die Verbindung der Komponenten zu dem GrADS Scheduler. Der Scheduler ist in dieser Abbildung als Blockbild dargestellt, um erst mal nur die Interaktionen der Komponenten mit ihm zu beschreiben. Unter (3.3.2) wird der Scheduler gesondert betrachtet. Abb. 5 GrADS System (Quelle: A Metascheduler For The Grid [1]) Gibt ein Benutzer einen Job in Auftrag, dann ergibt sich folgender Ablauf[1]: Der Job wird von der Grid Routine entgegengenommen. Die Grid Routine ist für die Koordination aller Handlungen zwischen den anderen Komponenten verantwortlich. Diese Komponente ruft als erstes den Ressource Selector auf. Dieser benutzt zuerst den Globus MDS. Dieser Liefert eine Liste aller betriebsbereiten Maschinen des Systems. Danach bestimmt der Ressource Selector mit Hilfe des NWS das Verhalten der zuvor ermittelten Maschinen. Das NWS schätzt das Verhalten der Netzwerkauslastung zwischen den Maschinen. Das so ermittelte Netzwerk wird als coarse -Grid bezeichnet [10] (bedeutet etwa grobes Netz). Grob, weil die Anzahl der Maschinen für den Job noch nicht optimal ist, da es sich hier nur die betriebsbereiten Maschinen handelt. Diese Daten werden wieder zurück an die Grid Routine geleitet. Danach wird die Komponente Performance Modeler aufgerufen. Diese ermittelt aus den vorher ermittelten Maschinen eine Liste der Maschinen, die speziell für den eingegebenen Job in Frage kommen. 13

14 Dabei werden die Maschinen ausgewählt, die die schnellste durchschnittliche Bandbreite im Vergleich zu den anderen Maschinen haben [10], um den Overhead so gering wie möglich zu halten. Die Menge der so ermittelten Maschinen wird als fine -Grid bezeichnet. Die Grid Routine bekommt das fine -Grid und ruft mit diesem als nächste Komponente den Contract Developer. Diese interagiert mit der Komponente Contract Negotiator des Schedulers des Systems (siehe 3.3.2). Der Contract Developer braucht die Zustimmung des Schedulers, ob der Job dieses fine - Grid tatsächlich bekommt. Über die Grid Routine wird dann das fine -Grid an den Application Launcher weitergeleitet, der den Job dann auf den Maschinen ablegt. Die Komponente Contract Monitor liefert die aktuelle und geschätzte Rechenzeit des Jobs Scheduler Der Multi-Site Scheduler für dieses System besteht aus 4 Komponenten [1] und interagiert mit den Komponenten des GrADS Systems. Abbildung 6 zeigt die Architektur dieses Schedulers. Abb. 6 GrADS Scheduler (Quelle: A Metascheduler For The Grid [1]) Der GrADS-Scheduler funktioniert wie gefolgt [1]: Der Database Manager enthält für jede im Grid laufende Applikation einen Eintrag. Der Eintrag enthält den Zustand der Applikation, die Ressourceinformationen des Grids wenn die Applikation es betrat, sowie die Liste aller Maschinen, auf denen der Job ausgeführt wird. Andere Scheduler Komponenten benutzen diese Komponente, um die richtigen Scheduling Entscheidung zu treffen. Der Permission Service bekommt das coarse -Grid, 14

15 und überprüft zunächst, ob das Grid genügend freien Speicher zur Verfügung hat. Ist dies nicht der Fall, dann kann diese Komponente eine lang rechnende Applikation anhalten um so einen neuen Job bevorzugt zu behandeln [1]. Durch das Anhalten so einer Applikation wird Speicher zur Verfügung gestellt. Der angehaltene Job wird fortgesetzt, wenn der neue Job zu Ende gerechnet hat. Dies ist nur möglich, wenn auf dem lang rechnenden Job Checkpointing möglich ist. Der Contract Negotiator bekommt (von Contract Developer, siehe 3.3.1) das fine -Grid. Diese Komponente agiert als Manager zwischen den Applikationen im Grid [1] weil sie die rechnenden Jobs unterbrechen und zurück in die Queue einreihen kann. Der Contract Negotiator entscheidet, ob der Job die auf der Liste stehenden Maschinen bekommt. Dieses wird als Contract (Vertrag zwischen Job und dem Grid) bezeichnet. Ein Vertrag kann abgelehnt werden, wenn z.b. die anfragende Applikation eine nicht mehr aktuelle Liste mit Maschinen erhalten hat. Dies kann passieren, wenn vor der aktuellen Applikation, die eine andere Applikation die Ausführung beginnt. Dann kann es passieren, dass das NWS keine korrekte Abschätzung liefert. In diesem Fall wird der Vertag abgelehnt. Der Vertag kann ebenfalls abgelehnt werden, wenn die Ausführung des Jobs durch bereits rechnende Jobs erheblich beeinträchtigt wird. Der Contract Negotiator kann so einen Job ermitteln und diesen stoppen [1], um so dem Vertag noch zustimmen zu können. Die Komponente Contract Developer (siehe 3.3.1) bekommt dann den Vertrag zurück und stimmt dann noch formal zu. Erst dann kann der Job auf die Maschinen verteilt werden. Der Expander versucht die Gesamtleistung des Systems bezüglich Ressourcennutzung zu verbessern. Hat eine Applikation zu Ende gerechnet, dann werden Ressourcen frei. Der Expander prüft, ob diese freigewordenen Ressourcen für andere Applikationen so nützlich sein können, dass sie Gesamtleistung verbessert wird, z.b. wenn der Job auf weniger Maschinen (Sites) gerechnet werden kann. Diese Komponente startet in regelmäßigen Abständen Anfragen an den Database Manager nach fertigen Applikationen. Der Scheduler verfolgt folgende Aufgaben [1]: 1. Bevorzugte Ausführung kürzerer Jobs und das temporäre Anhalten (durch den Permission Service) einer großen Applikation. 2. Der Scheduler hat die Möglichkeit eine neu dazugekommene Jobs schneller auszuführen, wenn dadurch einige Konkurrierende Applikationen gestoppt (durch den Contract Negotiator) werden. 3. Verlagern laufender Applikationen auf andere Maschinen (Migration durch den Expander), wenn so die Gesamtleistung des Systems verbessert werden kann. 15

16 Der Scheduler hat also die Kenntnis über die Auslastung des Systems, während die Komponenten des GrADS-Systems keine Kenntnis über die Systemauslastung haben. Nur der Scheduler entscheidet, ob der Job die ermittelte Liste von Maschinen bekommt, oder nicht. In der Abbildung 7 sind die Interaktionen zwischen den Komponenten des Systems und den Komponenten des Schedulers dargestellt. Die ovalförmigen Komponenten (rechte Seite in der Abbildung) sind die Komponenten des Schedulers, die das GraDS-System aufruft. Abb. 7 Interaktionen (Quelle: A Metascheduler For The Grid [1]) 16

17 4. Zusammenfassung Damit ein Grid bzw. ein System wie GrADS die Ressourcen effizient einsetzen kann muss es eine zentrale Verwaltungsinstanz geben, die diese Ressourcen verwaltet. Der Multi-Site Scheduler hat die Kenntnis über die Auslastung der Ressourcen des Grids. Alle eingegangenen Jobs, die die Grid Ressourcen nutzen möchten, werden an den Scheduler geleitet. Dann sorgt ein Algorithmus für Multi-Site Scheduling dafür, dass die Jobs die passenden Ressourcen des Grids bekommen bzw. er prüft, ob für einen Job bereits ermittelte Ressourcen gültig sind. Zusätzlich überwacht der Scheduler die laufenden Applikationen und versucht durch Verlagerung von Jobs eine bessere Gesamtleistung des Systems zu erzielen. Insgesamt kann also gesagt werden, dass ein System wie GrADS oder generell ein Grid ohne den Einsatz eines zentralen Schedulers nicht effizient ausgenutzt werden kann. 17

18 Literatur [1] Jack J. Dongarra, Sathish S. Vadhiyar A Metascheduler For The Grid 11th IEEE Symposium on High-Performance Distributed Computing, July 2002 [2] Carsten Ernemann, Volker Hamscher, Achim Streit, Ramin Yahyapour Enhanced Algorithms for Multi-Site Scheduling Grid Computing - GRID 2002 : Third International Workshop, Baltimore, MD, USA, November 18, 2002 (Pages: ) [3] Carsten Ernemann, Volker Hamscher, Uwe Schwiegelshohn, Ramin Yahyapour On Advantages of Grid Computing for Parallel Job Scheduling 2nd IEEE International Symposium on Cluster Computing and the Grid 2002 [4] Viktors, Berstis Fundamentals of Grid Computing, IBM Redpaper 12-November-2002 [5] Dmitry Zotkin, Peter J. Keleher Job-Length Estimation and performance in Backfilling Schedulers HPDC 1999 [6] Ramin Yahyapour, Uwe Schwiegelshohn Metacomputing NRW Scheduling for Scheduling for Metacomputing Systems Universität Dortmund [7] Karl Czajkowski, Steven Fitzgerald, Ian Foster, Carl Kesselman Grid Information Services for Distributed Resource Sharing 10th IEEE Symposium on High-Performance Distributed Computing 2001 [8] Matthias Hovestadt, Odej Kao, Axel Keller, Achim Streit Scheduling in HPC Resource Management Systems: Queuing vs. Planning 9th International Workshop, JSSPP 2003 Seattle, WA, USA, June 24, 2003 [9] Francine Berman, Andrew Chien, Keith Cooper, Jack Dongarra, Ian Foster, Dennis Gannon, Lennart Johnsson, Ken Kennedy, Carl Kesselman, John Mellor-Crummey, Dan Reed, Linda Torczon, Rich Wolski The GrADS Project: Software Support for High-Level Grid Application Development The International Journal of High Performance Computing Applications 2001 [10] Antoine Petitet, Susan Blackford, Jack Dongarra, Brett Ellis, Graham Fagg, Kenneth Roche, Sathish Vadhiyar Numerical Libraries And The Grid: The GrADS Experiments With ScaLAPACK,

Systeme 1. Kapitel 5. Scheduling

Systeme 1. Kapitel 5. Scheduling Systeme 1 Kapitel 5 Scheduling Scheduling Verteilung und Zuweisung von begrenzten Ressourcen an konkurrierende Prozesse Beispiel: -> Zeitablaufsteuerung Zwei Prozesse zur gleichen Zeit rechenbereit auf

Mehr

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Cloud-Computing Seminar Hochschule Mannheim WS0910 1/23 Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Fakultät für Informatik Hochschule

Mehr

Grid Computing. Einführung. Marc Lechtenfeld. Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen

Grid Computing. Einführung. Marc Lechtenfeld. Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen * Grid Computing Einführung Marc Lechtenfeld Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen Übersicht 1 Problematik 2 Systemanforderungen 3 Architektur 4 Implementation 5 Projekte

Mehr

CPU-Scheduling - Grundkonzepte

CPU-Scheduling - Grundkonzepte CPU-Scheduling - Grundkonzepte Sommersemester 2015 Seite 1 Gesamtüberblick 1. Einführung in Computersysteme 2. Entwicklung von Betriebssystemen 3. Architekturansätze 4. Interruptverarbeitung in Betriebssystemen

Mehr

Redwood Cronacle und REALTECH theguard! Integration

Redwood Cronacle und REALTECH theguard! Integration Redwood Cronacle und REALTECH theguard! Integration Einleitung Redwood Software und REALTECH haben gemeinsam eine Lösung entwickelt, die die Systemverfügbarkeit von SAP und mysap Systemen signifikant erhöht.

Mehr

Open Grid Services Architecture (OGSA)

Open Grid Services Architecture (OGSA) Open Grid Services Architecture (OGSA) IBM Red Paper; Fundamentals of Grid Computing, 2002 A d v an ced M id d lew are P ro f. D r. C h. R eich rc h @ fh-furtw angen.d e http://www.informatik.fh-furtwangen.de/~reich/advancedmiddlewareallg.ss05/index.html

Mehr

IBM Informix Tuning und Monitoring

IBM Informix Tuning und Monitoring Seminarunterlage Version: 11.01 Copyright Version 11.01 vom 25. Juli 2012 Dieses Dokument wird durch die veröffentlicht. Copyright. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen

Mehr

Grundlagen des Grid Computing

Grundlagen des Grid Computing Grundlagen des Grid Computing Grid Middleware Toolkits: Unicore ICA Joh.. Kepler Universität t Linz Unicore Uniform Interface to Computing Resources Seit 1997 am Forschungszentrum Jülich entwickelt Grid

Mehr

Systeme I: Betriebssysteme Kapitel 7 Scheduling. Maren Bennewitz

Systeme I: Betriebssysteme Kapitel 7 Scheduling. Maren Bennewitz Systeme I: Betriebssysteme Kapitel 7 Scheduling Maren Bennewitz Version 23.01.2013 1 Inhalt Vorlesung Aufbau einfacher Rechner Überblick: Aufgabe, Historische Entwicklung, unterschiedliche Arten von Betriebssystemen

Mehr

Ausarbeitung im Rahmen der PG Autolab zum Thema: OSEK 1 -OS. geschrieben von Oliver Botschkowski

Ausarbeitung im Rahmen der PG Autolab zum Thema: OSEK 1 -OS. geschrieben von Oliver Botschkowski Ausarbeitung im Rahmen der PG Autolab zum Thema: OSEK 1 -OS geschrieben von Oliver Botschkowski 1 Offene Systeme und deren Schnittstelle für die Elektronik im Kraftfahrzeug 1 Oliver Botschkowski - OSEK-OS

Mehr

Projekt im Sommersemester 2008. Complex and Distributed IT-Systems TU Berlin

Projekt im Sommersemester 2008. Complex and Distributed IT-Systems TU Berlin Virtuelle Systeme Projekt im Sommersemester 2008 Complex and Distributed IT-Systems TU Berlin Beispiel: VMWare 24.10.2007 CIT, Einführung Projekt Virtualisierung 2 Virtualisierung 24.10.2007 CIT, Einführung

Mehr

Dienstgüte in Mobilen Ad Hoc Netzen

Dienstgüte in Mobilen Ad Hoc Netzen Dienstgüte in Mobilen Ad Hoc Netzen KM-/VS-Seminar Wintersemester 2002/2003 Betreuer: Oliver Wellnitz 1 Was ist Dienstgüte? Einleitung The collective effect of service performance which determine the degree

Mehr

Betriebssysteme (BTS)

Betriebssysteme (BTS) 9.Vorlesung Betriebssysteme (BTS) Christian Baun cray@unix-ag.uni-kl.de Hochschule Mannheim Fakultät für Informatik Institut für Betriebssysteme 10.5.2007 Exkursion Die Exkursion wird am Freitag, den 18.5.2007

Mehr

Informationsbroschüre

Informationsbroschüre Informationsbroschüre Überwachung, Lastverteilung, automatische Aufgaben für Microsoft Dynamics NAV Mit IT IS control 2011 können Sie viele Mandanten und NAV-Datenbanken praktisch gleichzeitig mit wenigen

Mehr

Effizientes Änderungsmanagement in Outsourcing- Projekten

Effizientes Änderungsmanagement in Outsourcing- Projekten Effizientes Änderungsmanagement in Outsourcing- Projekten Dr. Henning Sternkicker Rational Software IBM Deutschland GmbH Sittarder Straße 31 52078 Aachen henning.sternkicker@de.ibm.com Abstract: Es werden

Mehr

GeoShop Netzwerkhandbuch

GeoShop Netzwerkhandbuch Technoparkstrasse 1 8005 Zürich Tel.: 044 / 350 10 10 Fax.: 044 / 350 10 19 GeoShop Netzwerkhandbuch Zusammenfassung Diese Dokumentation beschreibt die Einbindung des GeoShop in bestehende Netzwerkumgebungen.

Mehr

Inhalt. CADFEM & ANSYS Numerische Simulationen: Wie und warum? Analyse eines Strömungssensors in ANSYS Workbench

Inhalt. CADFEM & ANSYS Numerische Simulationen: Wie und warum? Analyse eines Strömungssensors in ANSYS Workbench Analyse eines Strömungssensors in ANSYS Workbench Henrik Nordborg CADFEM (Suisse) AG Inhalt CADFEM & ANSYS Numerische Simulationen: Wie und warum? Analyse eines Strömungssensors in ANSYS Workbench Prinzip

Mehr

GenLM: Lizenzmanagement im Grid- und Cloud-Computing

GenLM: Lizenzmanagement im Grid- und Cloud-Computing Flexibles Management von Softwarelizenzen in virtualisierten Umgebungen GenLM: Lizenzmanagement im Grid- und Cloud-Computing Mathias Dalheimer, dalheimer@itwm.fhg.de 20. Oktober 2008 Kaiserslautern Einleitung

Mehr

Betriebssysteme I WS 2013/2014. Betriebssysteme / verteilte Systeme rolanda.dwismuellera@duni-siegena.de Tel.: 0271/740-4050, Büro: H-B 8404

Betriebssysteme I WS 2013/2014. Betriebssysteme / verteilte Systeme rolanda.dwismuellera@duni-siegena.de Tel.: 0271/740-4050, Büro: H-B 8404 Betriebssysteme I WS 2013/2014 Betriebssysteme / verteilte Systeme rolanda.dwismuellera@duni-siegena.de Tel.: 0271/740-4050, Büro: H-B 8404 Stand: 16. Januar 2014 Betriebssysteme / verteilte Systeme Betriebssysteme

Mehr

BP 2 Prozessorvergabe - Multiprozessoren: Kern-Fäden. besten, wenn der Zusatzaufwand für Kontextumschaltungen gering ist.

BP 2 Prozessorvergabe - Multiprozessoren: Kern-Fäden. besten, wenn der Zusatzaufwand für Kontextumschaltungen gering ist. BP 2 Prozessorvergabe - Multiprozessoren: Kern-Fäden 5.2 Prozessorvergabe für Kern-Fäden Scheduler-Struktur Struktur der Warteschlangen Parallele Bearbeitung von Warteschlangen Strategien Statische oder

Mehr

TIMI: Technische Informatik für Medieninformatiker

TIMI: Technische Informatik für Medieninformatiker TIMI: Technische Informatik für Medieninformatiker Bachelor-Studiengang Digitale Medien Medieninformatik SS 2004 Niels Pollem Arbeitsgruppe Rechnernetze (Prof. Dr.-Ing. Ute Bormann) Scheduling:

Mehr

Dämon-Prozesse ( deamon )

Dämon-Prozesse ( deamon ) Prozesse unter UNIX - Prozessarten Interaktive Prozesse Shell-Prozesse arbeiten mit stdin ( Tastatur ) und stdout ( Bildschirm ) Dämon-Prozesse ( deamon ) arbeiten im Hintergrund ohne stdin und stdout

Mehr

SmartExporter 2013 R1

SmartExporter 2013 R1 Die aktuelle Version wartet mit zahlreichen neuen Features und umfangreichen Erweiterungen auf. So können mit SmartExporter 2013 R1 nun auch archivierte Daten extrahiert und das Herunterladen der Daten

Mehr

Proseminar Technische Informatik A survey of virtualization technologies

Proseminar Technische Informatik A survey of virtualization technologies Proseminar Technische Informatik A survey of virtualization technologies Referent: Martin Weigelt Proseminar Technische Informatik - A survey of virtualization technologies 1 Übersicht 1. Definition 2.

Mehr

glite Testbed am RRZN und Workload Management Grid Seminar 2005 Stefan Piger, Jan Wiebelitz

glite Testbed am RRZN und Workload Management Grid Seminar 2005 Stefan Piger, Jan Wiebelitz glite Testbed am RRZN und Workload Management Grid Seminar 2005 Stefan Piger, Jan Wiebelitz Agenda Europäische Grid-Projekte/Middleware LHC/LCG EGEE/gLite glite Testbed am RRZN Jobablauf in glite beteiligte

Mehr

BESCHAFFUNG UND LIZENZIERUNG MIT DEM VEREINFACHTEN ORACLE LIZENZMODELL

BESCHAFFUNG UND LIZENZIERUNG MIT DEM VEREINFACHTEN ORACLE LIZENZMODELL BESCHAFFUNG UND LIZENZIERUNG MIT DEM VEREINFACHTEN ORACLE LIZENZMODELL DIESER LEITFADEN IST FÜR FOLGENDE ORACLE SOFTWARE PROGRAMME GÜLTIG Oracle Database 11g Standard Edition One Die passende Datenbank-Lösung

Mehr

BESCHAFFUNG UND LIZENZIERUNG

BESCHAFFUNG UND LIZENZIERUNG BESCHAFFUNG UND LIZENZIERUNG MIT DEM VEREINFACHTEN ORACLE LIZENZMODELL DIESER LEITFADEN IST FÜR FOLGENDE ORACLE SOFTWARE PROGRAMME GÜLTIG: ORACLE LIZENZIERUNG Fragen Sie uns! Oracle Database 12c Standard

Mehr

Aktuelle Themen der Informatik: Virtualisierung

Aktuelle Themen der Informatik: Virtualisierung Aktuelle Themen der Informatik: Virtualisierung Sebastian Siewior 15 Mai 2006 1 / 22 1 Überblick 2 Techniken 3 Paravirtualisierung 4 Ende 2 / 22 Wieso Virtualisieren Wieso mehrere Betriebsysteme auf einer

Mehr

Tivoli Monitoring for Databases (ITM) Resource Model Tivoli Enterprise Console (TEC) Zusammenfassung. IBM Tivoli. Marcel Brückner

Tivoli Monitoring for Databases (ITM) Resource Model Tivoli Enterprise Console (TEC) Zusammenfassung. IBM Tivoli. Marcel Brückner 1 Tivoli Monitoring for Databases (ITM) Grundidee Umsetzung 2 3 Aufbau Kombination mit ITM Rule Sets 4 Grundidee Umsetzung 1 Tivoli Monitoring for Databases (ITM) Grundidee Umsetzung 2 3 Aufbau Kombination

Mehr

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2.

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2. Cloud Computing Frank Hallas und Alexander Butiu Universität Erlangen Nürnberg, Lehrstuhl für Hardware/Software CoDesign Multicorearchitectures and Programming Seminar, Sommersemester 2013 1. Definition

Mehr

Begriff: Scheduling Planung, Schedule Plan. Verplanung der CPU-Zeit an die Threads (bzw. Prozesse)

Begriff: Scheduling Planung, Schedule Plan. Verplanung der CPU-Zeit an die Threads (bzw. Prozesse) 5 CPU-Scheduling Im folgenden wird von Threads gesprochen. Bei Systemen, die keine Threads unterstützen, ist der einzige "Thread" eines Prozesses gemeint. Früher wurde dieser Thread synonym mit dem Begriff

Mehr

Verkürzung von Entwurfszeiten

Verkürzung von Entwurfszeiten Verkürzung von Entwurfszeiten durch Matlab-basiertes HPC R. Fink, S. Pawletta Übersicht aktuelle Situation im ingenieurtechnischen Bereich Multi-SCEs als Konzept zur Verkürzung von Entwurfszeiten Realisierung

Mehr

Entwurf und simulative Bewertung eines Verfahrens zur Behandlung von Engpässen in Bandwidth-Broker-gesteuerten DiffServ- Netzwerken

Entwurf und simulative Bewertung eines Verfahrens zur Behandlung von Engpässen in Bandwidth-Broker-gesteuerten DiffServ- Netzwerken Einleitungsvortrag zur Diplomarbeit: Entwurf und simulative Bewertung eines Verfahrens zur Behandlung von Engpässen in Bandwidth-Broker-gesteuerten DiffServ- Netzwerken --- Bernd Wollersheim --- --- wollersh@informatik.uni-bonn.de

Mehr

Operator Guide. Operator-Guide 1 / 7 V1.01 / jul.12

Operator Guide. Operator-Guide 1 / 7 V1.01 / jul.12 Operator Guide Einleitung Diese Guide vermittelt ihnen das Operator Know How für die Gästbox. Was müssen Sie wissen bevor Sie sich an die Arbeit machen. Von welchem PC aus kann ich die Gästbox bedienen.

Mehr

Prozesse und Scheduling

Prozesse und Scheduling Betriebssysteme für Wirtschaftsinformatiker SS04 KLAUSUR Vorbereitung mit Lösungen / Blatt 1 Prozesse und Scheduling Aufgabe 1 : Scheduling Gegeben seien die folgenden Prozesse und die Längen des jeweiligen

Mehr

Approximationsalgorithmen: Klassiker I. Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling

Approximationsalgorithmen: Klassiker I. Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling Approximationsalgorithmen: Klassiker I Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling VO Approximationsalgorithmen WiSe 2011/12 Markus Chimani

Mehr

AFS / OpenAFS. Bastian Steinert. Robert Schuppenies. Präsentiert von. Und

AFS / OpenAFS. Bastian Steinert. Robert Schuppenies. Präsentiert von. Und AFS / OpenAFS Präsentiert von Bastian Steinert Und obert Schuppenies Agenda AFS Verteilte Dateisysteme, allg. Aufbau Sicherheit und Zugriffsrechte Installation Demo Vergleich zu anderen DFs Diskussion

Mehr

Scheduling in Echtzeitbetriebssystemen. Prof. Dr. Margarita Esponda Freie Universität Berlin

Scheduling in Echtzeitbetriebssystemen. Prof. Dr. Margarita Esponda Freie Universität Berlin Scheduling in Echtzeitbetriebssystemen Prof. Dr. Margarita Esponda Freie Universität Berlin Echtzeitsysteme Korrekte Ergebnisse zum richtigen Zeitpunkt Hart Echtzeitsysteme Eine verspätete Antwort ist

Mehr

Scheduling. Prozess-Ablaufplanung. Prof. Dr. Margarita Esponda Freie Universität Berlin WS 2011/2012

Scheduling. Prozess-Ablaufplanung. Prof. Dr. Margarita Esponda Freie Universität Berlin WS 2011/2012 Scheduling Prozess-Ablaufplanung Prof. Dr. Margarita Esponda Freie Universität Berlin WS 2011/2012 Scheduler Der Scheduler ist ein besonders wichtiges Programmteil jedes Betriebssystems. Prozesse P 1 P

Mehr

Projekt für Systemprogrammierung WS 06/07

Projekt für Systemprogrammierung WS 06/07 Dienstag 30.01.2007 Projekt für Systemprogrammierung WS 06/07 Von: Hassan Bellamin E-Mail: h_bellamin@web.de Gliederung: 1. Geschichte und Definition 2. Was ist Virtualisierung? 3. Welche Virtualisierungssoftware

Mehr

1. Einleitung. Clustern mit Condor

1. Einleitung. Clustern mit Condor Inhalt: 1. Einleitung 2. Struktur eines Condor Cluster 3. Feature's von Condor 4. Jobs in Auftrag geben 5. Ausführung der Jobs 6. Sicherheit 7. Condor Universes 8. Erweiterung des Condorpool 2 1. Einleitung

Mehr

Zustandsgebundene Webservices

Zustandsgebundene Webservices Zustandsgebundene Webservices Präsentation ausgewählter Problemstellungen der Informatik Markus Oertel oer@uni-paderborn.de Universität Paderborn 25. September 2005 Zustandsgebundene Webservices Seite

Mehr

Technische Informatik II

Technische Informatik II Institut für Technische Informatik und Kommunikationsnetze Technische Informatik II Übung 1: Prozesse und Threads Aufgabe 1: Prozesse und Threads a) Wie verhält sich eine Applikation die aus mehreren Prozessen

Mehr

zur WinIBW Version 2.3

zur WinIBW Version 2.3 zur WinIBW Version 2.3 Stand: 14. Dezember 2001 18. Januar 2002 BW Installation (lokal) Technische Voraussetzungen Softwarebeschaffung Installation Start Pica-Schriften Probleme Technische Voraussetzungen

Mehr

Oracle Cloud Control. Seminarunterlage. Version 12.03 vom

Oracle Cloud Control. Seminarunterlage. Version 12.03 vom Seminarunterlage Version: 12.03 Version 12.03 vom 1. Oktober 2013 Dieses Dokument wird durch die veröffentlicht.. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen sind Warenzeichen

Mehr

Load-Balancing in strukturierten P2P-Systemen

Load-Balancing in strukturierten P2P-Systemen Load-Balancing in strukturierten P2P-Systemen Axel Pfeiffer Februar 2007 1 Einleitung In Peer-to-Peer Systemen sind höchst unterschiedliche Clients anzutreffen, vom Desktop-PC mit geringer Bandbreite und

Mehr

7.4 Analyse anhand der SQL-Trace. 7.3.5 Vorabanalyse mit dem Code Inspector

7.4 Analyse anhand der SQL-Trace. 7.3.5 Vorabanalyse mit dem Code Inspector 7.4 Analyse anhand der SQL-Trace 337 7.3.5 Vorabanalyse mit dem Code Inspector Der Code Inspector (SCI) wurde in den vorangegangenen Kapiteln immer wieder erwähnt. Er stellt ein paar nützliche Prüfungen

Mehr

Systemaspekte Verteilter Systeme Wintersemester 2004/05

Systemaspekte Verteilter Systeme Wintersemester 2004/05 Systemaspekte Verteilter Systeme Wintersemester 2004/05 Odej Kao Institut für Informatik Universität Paderborn Prof. Dr. Odej Kao Dozent AG Betriebssysteme und Verteilte Systeme Fürstenallee 11, F2.101

Mehr

IP routing und traceroute

IP routing und traceroute IP routing und traceroute Seminar Internet-Protokolle Dezember 2002 Falko Klaaßen fklaasse@techfak.uni-bielefeld.de 1 Übersicht zum Vortrag Was ist ein internet? Was sind Router? IP routing Subnet Routing

Mehr

IBM SPSS Collaboration and Deployment Services (C&DS) version 7

IBM SPSS Collaboration and Deployment Services (C&DS) version 7 Dieses Handbuch richtet sich an Systemadministratoren, die IBM SPSS Modeler Entity Analytics (EA) für die Ausführung mit einem der folgenden Produkte konfigurieren: IBM SPSS Collaboration and Deployment

Mehr

Echtzeitfähige Ereignisgetriebene Scheduling-Strategien

Echtzeitfähige Ereignisgetriebene Scheduling-Strategien Friedrich-Alexander-Universität Erlangen-Nürnberg Ausgewählte Kapitel eingebetteter Systeme Echtzeitfähige Ereignisgetriebene Scheduling-Strategien Sven Kerschbaum 1. Einführung Bei einem eingebetteten

Mehr

183.579, SS2012 Übungsgruppen: Do., 14.6. Mi., 20.6.2012

183.579, SS2012 Übungsgruppen: Do., 14.6. Mi., 20.6.2012 VU Technische Grundlagen der Informatik Übung 8: Systemsoftware und Netzwerke 183.579, SS2012 Übungsgruppen: o., 14.6. Mi., 20.6.2012 ufgabe 1: Virtual Memory Zeichnen Sie ein System das Paging zur Speicherverwaltung

Mehr

Perzentile mit Hadoop ermitteln

Perzentile mit Hadoop ermitteln Perzentile mit Hadoop ermitteln Ausgangspunkt Ziel dieses Projektes war, einen Hadoop Job zu entwickeln, der mit Hilfe gegebener Parameter Simulationen durchführt und aus den Ergebnissen die Perzentile

Mehr

Welche der folgenden Aussagen gelten? a) Im allgemeinen gilt: ein Deadlock tritt auf gdw. der Resource-Allocation Graph einen Zykel

Welche der folgenden Aussagen gelten? a) Im allgemeinen gilt: ein Deadlock tritt auf gdw. der Resource-Allocation Graph einen Zykel Aufgabe 1 (5 Punkte) (Multiple Choice) Beantworten Sie folgende Fragen durch Ankreuzen der richtigen Antwort. Für jede falsche Antwort wird ein Punkt abgezogen (es werden minimal 0 Punkte vergeben). Welche

Mehr

Das Lastverteilungsproblem

Das Lastverteilungsproblem Das Lastverteilungsproblem Approximationsalgorithmen Referent Franz Brauße Veranstaltung Proseminar Theoretische Informatik Universität Trier, FB IV Dozent Prof. Dr. Henning Fernau 23.02.2012 Übersicht

Mehr

Übung zu Grundlagen der Betriebssysteme. 7. Übung 27.11.2012

Übung zu Grundlagen der Betriebssysteme. 7. Übung 27.11.2012 Übung zu Grundlagen der Betriebssysteme 7. Übung 27.11.2012 Threads Thread (Faden des (Kontrollflusses)): ist ein sequentieller Abarbeitungsablauf (Kontrollfluss) innerhalb eines Prozesses. Umfasst ein

Mehr

Dokumentation RabattManagerLX Pro. Version 1.0.901.1

Dokumentation RabattManagerLX Pro. Version 1.0.901.1 Dokumentation RabattManagerLX Pro Version 1.0.901.1 Dokumentation RabattManagerLX Pro Version 1.0.901.1 Was ist RabattManagerLX Pro? RabattManagerLX Pro ist ein Programm um individuelle Warengruppen-Rabatte

Mehr

Red Hat Cluster Suite

Red Hat Cluster Suite Red Hat Cluster Suite Building high-available Applications Thomas Grazer Linuxtage 2008 Outline 1 Clusterarten 2 3 Architektur Konfiguration 4 Clusterarten Was ist eigentlich ein Cluster? Wozu braucht

Mehr

An integrated total solution for automatic job scheduling without user interaction

An integrated total solution for automatic job scheduling without user interaction An integrated total solution for automatic job scheduling without user interaction Multifunktional Der Job-Scheduler ist ein multifunktionaler Taskplaner welcher die Steuerzentrale zur regelmässigen Ausführung

Mehr

Schedulingalgorithmen Rechenzeitverteilung auf Betriebssystemebene. Andi Drebes Fachbereich Informatik Universität Hamburg

Schedulingalgorithmen Rechenzeitverteilung auf Betriebssystemebene. Andi Drebes Fachbereich Informatik Universität Hamburg Schedulingalgorithmen Rechenzeitverteilung auf Betriebssystemebene Andi Drebes Fachbereich Informatik Universität Hamburg Gliederung Notwendigkeit des Schedulings Einführung: Begriff des Multitaskings

Mehr

Benutzerhandbuch. bintec elmeg GmbH. Benutzerhandbuch. Workshops (Auszug) WLAN-Workshops. Copyright Version 07/2015 bintec elmeg GmbH

Benutzerhandbuch. bintec elmeg GmbH. Benutzerhandbuch. Workshops (Auszug) WLAN-Workshops. Copyright Version 07/2015 bintec elmeg GmbH Benutzerhandbuch Benutzerhandbuch WLAN-Workshops Copyright Version 07/2015 1 Benutzerhandbuch Rechtlicher Hinweis Gewährleistung Änderungen in dieser Veröffentlichung sind vorbehalten. gibt keinerlei Gewährleistung

Mehr

Installation in Novell NetWare 3 Netzwerken High Speed Connectivity for all Printers and Networks

Installation in Novell NetWare 3 Netzwerken High Speed Connectivity for all Printers and Networks Installation in Novell NetWare 3 Netzwerken High Speed Connectivity for all Printers and Networks High speed data transfer Built-in web server for system-independent management Models for all printers

Mehr

VMware Schutz mit NovaBACKUP BE Virtual

VMware Schutz mit NovaBACKUP BE Virtual VMware Schutz mit NovaBACKUP BE Virtual Anforderungen, Konfiguration und Restore-Anleitung Ein Leitfaden (September 2011) Inhalt Inhalt... 1 Einleitung... 2 Zusammenfassung... 3 Konfiguration von NovaBACKUP...

Mehr

Ausarbeitung zum Vortrag Java Web Start von Adrian Fülöp Fach: Komponentenbasierte Softwareentwicklung WS 06/07 Fachhochschule Osnabrück

Ausarbeitung zum Vortrag Java Web Start von Adrian Fülöp Fach: Komponentenbasierte Softwareentwicklung WS 06/07 Fachhochschule Osnabrück Ausarbeitung zum Vortrag Java Web Start von Adrian Fülöp Fach: Komponentenbasierte Softwareentwicklung WS 06/07 Fachhochschule Osnabrück Adrian Fülöp (297545) - 1 - Inhaltsverzeichnis: 1. Einführung 2.

Mehr

Seminar im Wintersemester 2008/2009. Complex and Distributed IT-Systems TU Berlin

Seminar im Wintersemester 2008/2009. Complex and Distributed IT-Systems TU Berlin Betrieb komplexer IT-Systeme Seminar im Wintersemester 2008/2009 Complex and Distributed IT-Systems TU Berlin Status Quo Rechenzentren erfüllen Vielzahl an Diensten Klassische Server-Dienste Mailserver,

Mehr

Das Knowledge Grid. Eine Architektur für verteiltes Data Mining

Das Knowledge Grid. Eine Architektur für verteiltes Data Mining Das Knowledge Grid Eine Architektur für verteiltes Data Mining 1 Gliederung 1. Motivation 2. KDD und PDKD Systeme 3. Knowledge Grid Services 4. TeraGrid Projekt 5. Das Semantic Web 2 Motivation Rapide

Mehr

RAID. Name: Artur Neumann

RAID. Name: Artur Neumann Name: Inhaltsverzeichnis 1 Was ist RAID 3 1.1 RAID-Level... 3 2 Wozu RAID 3 3 Wie werden RAID Gruppen verwaltet 3 3.1 Software RAID... 3 3.2 Hardware RAID... 4 4 Die Verschiedenen RAID-Level 4 4.1 RAID

Mehr

Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008

Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008 Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008 Jörg Rödel Virtualization - Whats out there? Virtualisierung hat bereits längere Geschichte auf x86 Startete mit VMware Setzte

Mehr

DriveLock in Terminalserver Umgebungen

DriveLock in Terminalserver Umgebungen DriveLock in Terminalserver Umgebungen Technischer Artikel CenterTools Software GmbH 2011 Copyright Die in diesen Unterlagen enthaltenen Angaben und Daten, einschließlich URLs und anderen Verweisen auf

Mehr

Bildungsportal-Verbund

Bildungsportal-Verbund Bildungsportal-Verbund BPVP Bildungsportal-Verbund Protokoll Kurzspezifikation Für weitere technische Details nehmen kontaktieren Sie bitte: Robert.kristoefl@bmbwk.gv.at Thomas.menzel@bmbwk.gv.at Version

Mehr

Datenkollektor für SAP Customer Relationship Management (CRM) Status: 09.12.08

Datenkollektor für SAP Customer Relationship Management (CRM) Status: 09.12.08 Datenkollektor für SAP Customer Relationship Management (CRM) Status: 09.12.08 Inhaltsverzeichnis SAP CRM DATENKOLLEKTOR 3 DIE LEISTUNGSMERKMALE DES DATENKOLLEKTORS FÜR SAP CRM...3 Ziele des Monitorings:...3

Mehr

Abstrakt zum Vortrag im Oberseminar. Graphdatenbanken. Gero Kraus HTWK Leipzig 14. Juli 2015

Abstrakt zum Vortrag im Oberseminar. Graphdatenbanken. Gero Kraus HTWK Leipzig 14. Juli 2015 Abstrakt zum Vortrag im Oberseminar Graphdatenbanken Gero Kraus HTWK Leipzig 14. Juli 2015 1 Motivation Zur Darstellung komplexer Beziehungen bzw. Graphen sind sowohl relationale als auch NoSQL-Datenbanken

Mehr

Betriebssystembau (BSB)

Betriebssystembau (BSB) Betriebssystembau (BSB) 6. Übung http://ess.cs.tu-.de/de/teaching/ws2013/bsb/ Olaf Spinczyk olaf.spinczyk@tu-.de http://ess.cs.tu-.de/~os AG Eingebettete System Informatik 12, TU Dortmund Agenda Vorstellung

Mehr

Heuristiken im Kontext von Scheduling

Heuristiken im Kontext von Scheduling Heuristiken im Kontext von Scheduling Expertenvortrag CoMa SS 09 CoMa SS 09 1/35 Übersicht Motivation Makespan Scheduling Lokale Suche Weitere Metaheuristiken Zusammenfassung Literatur CoMa SS 09 2/35

Mehr

1 Welcher Service Operation Prozesse fehlen? Incident Management, Problem

1 Welcher Service Operation Prozesse fehlen? Incident Management, Problem 1 Welcher Service Operation Prozesse fehlen? Incident Management, Problem Management, Access Management a. Event Management b. Service Desk c. Facilities Management d. Change Management e. Request Fulfilment

Mehr

Grid Computing Seminar

Grid Computing Seminar Grid Computing Seminar Thema 3: Ressourcen-Management/Scheduling Oliver Schilbach Universität Duisburg-Essen Sommersemester 2004 1 Einführung Ressourcen-Management-System (RMS) zentrale Komponente eines

Mehr

Reaktive Systeme und synchrones Paradigma

Reaktive Systeme und synchrones Paradigma Sascha Kretzschmann Freie Universität Berlin Reaktive Systeme und synchrones Paradigma Einführung in das Seminar über synchrone Programmiersprachen Worum geht es? INHALT 2 Inhalt 1. Einleitung - Wo befinden

Mehr

The world we live in and Supercomputing in general

The world we live in and Supercomputing in general The world we live in and Supercomputing in general Achim Streit aktuelle Prozessoren Desktop Intel Pentium 4 mit 3.2 GHz AMD Athlon XP 3200+ mit 2.2 GHz IBM PowerPC G5 mit 2.0 GHz (64-bit) Server & Workstation

Mehr

Approximationsalgorithmen

Approximationsalgorithmen Ausarbeitung zum Thema Approximationsalgorithmen im Rahmen des Fachseminars 24. Juli 2009 Robert Bahmann robert.bahmann@gmail.com FH Wiesbaden Erstellt von: Robert Bahmann Zuletzt berarbeitet von: Robert

Mehr

Approximation in Batch and Multiprocessor Scheduling

Approximation in Batch and Multiprocessor Scheduling Approximation in Batch and Multiprocessor Scheduling Tim Nonner IBM Research Albert-Ludwigs-Universität Freiburg 3. Dezember 2010 Scheduling Zeit als Ressource und Beschränkung Formaler Gegeben sind Jobs

Mehr

Staff. Tim Conrad. Zeitplan. Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2013. Tim Conrad

Staff. Tim Conrad. Zeitplan. Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2013. Tim Conrad Blockseminar: Verteiltes Rechnen und Parallelprogrammierung Sommer Semester 2013 Tim Conrad Staff Tim Conrad AG Computational Proteomics email: conrad@math.fu-berlin.de Telefon: 838-51445 Büro: Raum 138,

Mehr

4D Server v12 64-bit Version BETA VERSION

4D Server v12 64-bit Version BETA VERSION 4D Server v12 64-bit Version BETA VERSION 4D Server v12 unterstützt jetzt das Windows 64-bit Betriebssystem. Hauptvorteil der 64-bit Technologie ist die rundum verbesserte Performance der Anwendungen und

Mehr

Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC. Alexander Scholz

Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC. Alexander Scholz Hochverfügbar und Skalierung mit und ohne RAC Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC Alexander Scholz Copyright its-people Alexander Scholz 1 Einleitung Hochverfügbarkeit

Mehr

PADS 3.0 Viewer - Konfigurationen

PADS 3.0 Viewer - Konfigurationen PADS 3.0 Viewer - Konfigurationen Net Display Systems (Deutschland) GmbH - Am Neuenhof 4-40629 Düsseldorf Telefon: +49 211 9293915 - Telefax: +49 211 9293916 www.fids.de - email: info@fids.de Übersicht

Mehr

Ralf Enderle 19.11.07. Grid Computing. Seminar am Institut für verteilte Systeme im WS 07/08 - Forschungstrends im Bereich Verteilte Systeme -

Ralf Enderle 19.11.07. Grid Computing. Seminar am Institut für verteilte Systeme im WS 07/08 - Forschungstrends im Bereich Verteilte Systeme - Ralf Enderle 19.11.07 Grid Computing Seminar am Institut für verteilte Systeme im WS 07/08 - Forschungstrends im Bereich Verteilte Systeme - Seite 2 Inhalt Einleitung Konzeptueller Aufbau eines Grid Systems

Mehr

Cluster Operating Systems

Cluster Operating Systems Lehrstuhl für Rechnerarchitektur, Professor Brüning Cluster Operating Systems Seminarvortrag im Wintersemester 2003/04 von Frank Ueltzhöffer 1. Einführung und Motivation 2. Charakterisierung 3. Herausforderungen

Mehr

Gliederung. Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik

Gliederung. Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik Cloud Computing Gliederung Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik 2 Bisher Programme und Daten sind lokal beim Anwender

Mehr

Grundlagen der Verwendung von make

Grundlagen der Verwendung von make Kurzskript zum Thema: Grundlagen der Verwendung von make Stefan Junghans Gregor Gilka 16. November 2012 1 Einleitung In diesem Teilskript sollen die Grundlagen der Verwendung des Programmes make und der

Mehr

ein verteiltes und repliziertes Dateisystem XtreemOS IP project is funded by the European Commission under contract IST-FP6-033576

ein verteiltes und repliziertes Dateisystem XtreemOS IP project is funded by the European Commission under contract IST-FP6-033576 ein verteiltes und repliziertes Dateisystem is funded by the European Commission XtreemOS IPunder project contract IST-FP6-033576 1 Das XtreemOS Projekt Europäisches Forschungsprojekt gefördert von der

Mehr

Zeitsynchronisation Windows Server 2008 R2 PDC Master der FRD mit einer externen Zeitquelle

Zeitsynchronisation Windows Server 2008 R2 PDC Master der FRD mit einer externen Zeitquelle Zeitsynchronisation Windows Server 2008 R2 PDC Master der FRD mit einer externen Zeitquelle Wie funktioniert die Zeitsynchronisation in Windows Netzwerken: http://support.microsoft.com/kb/816042 MSDN Blog

Mehr

Exascale Computing. = Exascale braucht Manycore-Hardware...und was für Software??? 46/58

Exascale Computing. = Exascale braucht Manycore-Hardware...und was für Software??? 46/58 Exascale Computing Die FLOP/s-Tabelle: Name Faktor erreicht heute Giga 10 9 1976 CPU-Kern Tera 10 12 1997 Graphikkarte (GPU) Peta 10 15 2009 Supercomputer Exa 10 18 2020(?) Der gegenwärtig schnellste Rechner

Mehr

InfiniBand Low Level Protocol

InfiniBand Low Level Protocol InfiniBand Low Level Protocol Seminar Ausgewählte Themen in Hardwareentwurf und Optik HWS 08 17.12.2008 Andreas Walter Universität Mannheim Inhalt Motivation InfiniBand Basics Physical Layer IB Verbs IB

Mehr

A-Plan 12.0. Zeiterfassung 2.0. Ausgabe 1.1. Copyright. Warenzeichenhinweise

A-Plan 12.0. Zeiterfassung 2.0. Ausgabe 1.1. Copyright. Warenzeichenhinweise A-Plan 12.0 Zeiterfassung 2.0 Ausgabe 1.1 Copyright Copyright 1996-2014 braintool software gmbh Kein Teil dieses Handbuches darf ohne ausdrückliche Genehmigung von braintool software gmbh auf mechanischem

Mehr

Grundlagen verteilter Systeme

Grundlagen verteilter Systeme Universität Augsburg Insitut für Informatik Prof. Dr. Bernhard Bauer Wolf Fischer Christian Saad Wintersemester 08/09 Übungsblatt 5 26.11.08 Grundlagen verteilter Systeme Lösungsvorschlag Aufgabe 1: Erläutern

Mehr

Fraunhofer Resource Grid

Fraunhofer Resource Grid Fraunhofer Resource Grid Fraunhofer Resource Grid Andreas Hoheisel (andreas.hoheisel@first.fraunhofer.de) Uwe Der (uwe.der@first.fraunhofer.de) Computing Grids Computing Grids Das Netz ist der Computer

Mehr

DB2 Kurzeinführung (Windows)

DB2 Kurzeinführung (Windows) DB2 Kurzeinführung (Windows) Michaelsen c 25. Mai 2010 1 1 Komponenten von DB2 DB2 bietet zahlreiche graphische Oberflächen für die Verwaltung der verschiedenen Komponenten und Anwendungen. Die wichtigsten

Mehr

Architekturen. Von der DB basierten zur Multi-Tier Anwendung. DB/CRM (C) J.M.Joller 2002 131

Architekturen. Von der DB basierten zur Multi-Tier Anwendung. DB/CRM (C) J.M.Joller 2002 131 Architekturen Von der DB basierten zur Multi-Tier Anwendung DB/CRM (C) J.M.Joller 2002 131 Lernziele Sie kennen Design und Architektur Patterns, welche beim Datenbankzugriff in verteilten Systemen verwendet

Mehr

Monitoring. Björn Hagemeier 25. März 2005

Monitoring. Björn Hagemeier <bjoernh@uni-paderborn.de> 25. März 2005 Monitoring Björn Hagemeier 25. März 2005 1 1 Motivation 1.1 Was ist Monitoring? Monitoring ist das Sammeln von Status-Informationen einer Ressource. Da es sich bei einer Grid-Ressource

Mehr

I T I L. ITIL ein systematisches und professionelles Vorgehen für. das Management von IT Dienstleistungen. Andreas Henniger.

I T I L. ITIL ein systematisches und professionelles Vorgehen für. das Management von IT Dienstleistungen. Andreas Henniger. I T I L ITIL ein systematisches und professionelles Vorgehen für das Management von IT Dienstleistungen. 1 ITIL Was ist ITIL? ITIL wurde von der Central Computing and Telecommunications Agency (CCTA) entwickelt,

Mehr

Message Oriented Middleware am Beispiel von XMLBlaster

Message Oriented Middleware am Beispiel von XMLBlaster Message Oriented Middleware am Beispiel von XMLBlaster Vortrag im Seminar XML und intelligente Systeme an der Universität Bielefeld WS 2005/2006 Vortragender: Frederic Siepmann fsiepman@techfak.uni bielefeld.de

Mehr