Betriebssysteme (BTS)

Größe: px
Ab Seite anzeigen:

Download "Betriebssysteme (BTS)"

Transkript

1 18.Vorlesung Betriebssysteme (BTS) Christian Baun Hochschule Mannheim Fakultät für Informatik Institut für Betriebssysteme

2 Wiederholung vom letzten Mal Virtualisierung Vorteile von Virtualisierung Nachteile und Grenzen von Virtualisierung Konzepte der Virtualisierung Applikationsvirtualisierung Hardware-Emulation Virtual Machine Monitor Paravirtualisierung Userland-Virtualisierung (Container) Hardware-Virtualisierung 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 2

3 Heute Cluster-Computing Definition und Klassifikationen von Clustern Vorteile und Nachteile von Clustern Biblioteken für Cluster-Applikationen (PVM und MPI) Grid-Computing Definition und Grid-Zielsetzungen und Grid-Systeme Warum braucht man überhaupt Grids? Probleme beim Einsatz von Grids Peer-to-Peer-Computing Peer-to-Peer-Architekturen und Einsatzgebiete 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 3

4 Das Client-Server-Modell Das Cluster-Computing ist eine Weiterentwicklung des Client-Server- Modells. Ein Client-Server-System besteht aus: 1. einem oder mehreren Clients, die Dienste des Servers in Anspruch nehmen und auf Daten, die auf dem Server bereit liegen, zugreifen und 2. einem zentralen Server, der Dienste oder Daten bereit stellt. Bei den Clients handelt es sich um Konsumenten, bei Servern um Produzenten. Der Verbindungsaufbau geht von den Clients aus. Die Kommunikation zwischen Client und Server erfolgt nach einem festen Ablaufprotokoll. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 4

5 Das Client-Server-Modell ein Two-Tier-Modell Ein Client sendet an den Server eine Anforderung (Request), die von diesem mit einer Antwort (Reply) beantwortet wird. Die Client-Server-Architektur besteht aus zwei Schichten und wird daher als Two-Tier-Modell (Tier = Schicht) bezeichnet. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 5

6 Fünf Aufgabenbereiche beim Client-Server-Modell Bei einer verteilten Anwendung, die auf der Client-Server-Architektur basiert, lassen sich fünf Aufgabenbereiche voneinander trennen: Darstellung der grafischen Benutzeroberfäche Benutzerinterface (GUI) Verarbeitung Datenmanagement Datenspeicherung Die Verteilung der einzelnen Aufgaben auf die Clients und den Server legt fest, um welche Art von Clients es sich handelt. Entsprechend ihrer zugeteilten Aufgabenbereiche, werden vier Arten von Clients unterschieden: = Null Clients, Thin Clients, Applet Clients und Fat Clients. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 6

7 Vier Arten von Clients beim Client-Server-Modell Null Clients (X-Clients) sind nur für die Darstellung der grafischen Benutzeroberfäche und die Übertragung der Benutzereingaben an den Server zuständig. Die Bereitstellung der GUI, die Verarbeitung, Datenverarbeitung und Datenspeicherung übernimmt der Server. Thin Clients sind für die Darstellung der grafischen Benutzeroberfäche und die Bereitstellung der GUI zuständig. Applet Clients übernehmen die Darstellung der grafischen Benutzeroberfäche, die Bereitstellung der GUI und einen Teil der Verarbeitung. Die Applikationen (Applets) verarbeiten die Clients selbst. Bei Fat Clients befindet sich nur das Datenmanagement und die Datenhaltung auf dem Server. Bei dem Server kann es sich um einen File-Server oder Datenbank-Server handeln. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 7

8 Entwicklung der Clients beim Client-Server-Modell In der Anfangszeit der Client-Server-Ära handelte es sich bei den Clients in der Regel um X-Clients, also um reine Terminals. Mit dem Steigen der Rechenkapazität von Clients wurden aber immer mehr Aufgabenbereiche auf diese ausgelagert. Das Cluster-Computing entstand auch aus dem Wunsch heraus, die Leisungsfähigkeit von miteinander vernetzten Rechner zu bündeln und für rechenintensive Aufgaben zu nutzen. Um die Berechnung und Abarbeitung von Problemen zu beschleunigen, existieren drei Möglichkeiten: 1. Steigerung der Rechenleistung durch schnellere Prozessoren. 2. Optimierung der eingesetzten Algorithmen. 3. Nutzung von mehr als einem Rechnersystem zur Leistungssteigerung. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 8

9 Gründe für Cluster-Computing Die Rechenleistung innerhalb eines Computers ist nicht beliebig zu steigern. Symmetrisches Multiprocessing hat Grenzen. Der Speicherbus wird zum Flaschenhals. Mit jeder zusätzlichen CPU sinkt der relative Leistungsgewinn, da die Speichersubsysteme die Daten nicht mehr schnell genug liefern können, um alle vorhandenen CPUs auszulasten. Algorithmen sind nur mit großem Aufwand und nicht beliebig optimierbar. Es bietet sich also die dritte Möglichkeit, also der Zusammenschluss von mehreren Rechnersystemen zu Clustern an. Die Steigerung der Leistungsfähigkeit eines Cluster-Systems ist praktisch unbegrenzt und wird nur von folgenden Faktoren eingeschränkt: Leistungsfähigkeit des Servers. Datenübertragungsrate der verwendeten Netzwerktechnologie. Wartungs- und Administrationsaufwand der angeschlossenen Systeme. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 9

10 Historische Entwicklung des Cluster-Computing (1) 1983: Digital Equipment Corporation (DEC) bietet für seine VAX-11- Rechner eine Clusterlösung an, um mehere Rechner mit einem seriellen Hochgeschwindigkeits-Interface zusammenzuschließen. Durch den Zusammenschluss meherer VAXen war es möglich, auf die Rechenleistung und den Speicherplatz der Rechner zuzugreifen, als würde es sich dabei um einen einzelnen handeln. 1987: DEC verkaufte mit der VAX 8978 und der VAX 8974 komplette Cluster-Systeme, die aus 4 oder 8 Knoten und einer MicroVAX II als Steuerkonsole bestanden. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 10

11 Historische Entwicklung des Cluster-Computing (2) Anfang der 90er Jahre: Etablierung der Client-Server-Architektur. UNIX-Workstations halten in Unternehmen und Hochschulen Einzug. Eine Workstation ist im Arbeitsalltag nur zu 5-10% ausgelastet. Der größte Teil ihrer potentiellen Rechenleistung ist ungenutzt. Dank der zunehmenden Vernetzung, lag es nahe, eine Middleware zu entwickeln, die eine Nutzung der freien Rechenleistung zur Bewältigung komplexer Aufgaben ermöglicht. Mit PVM und MPI, die beide einen Message Passing Layer unabhängig von der Architektur der Knoten anbieten, ist es möglich, Cluster-Applikationen mit definierten Schnittstellen zu entwickeln. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 11

12 Historische Entwicklung des Cluster-Computing (3) Mitte der 90er Jahre: Cluster aus Standard-PCs werden zunehmend populär. Diese Systeme bieten je nach Ausstattung und Aufbau eine sehr hohen Rechenleistung und/oder Verfügbarkeit zu geringen Preisen. Zusätzlich bieten diese Systeme eine bislang unerreichte Flexibilität was Einsatzzweck und Systemerweiterungen angeht. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 12

13 Definition des Cluster-Computing (1) Ein Cluster besteht aus mindestens zwei Knoten. Bei jedem Knoten handelt es sich um ein eigenständiges Rechnersystem. Die Knoten eines Clusters sind durch ein Netzwerk miteinander verbunden. Dem Anwender präsentiert sich ein Cluster wie ein einzelnes System, ein virtueller Uniprozessor. Idealerweise wissen die Anwender gar nicht, dass es sich bei dem System, auf dem sie arbeiten, um einen Cluster handelt. Dieses Darstellungskonzept bezeichnet man als Single System Image. Das Konzept des Single System Image existiert nicht nur bei Clustern. Bei SMP-Systemen werden die Prozessoren und der Speicher des Systems mit Hilfe eines Single System Image auf laufenden Applikationen verteilt. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 13

14 Definition des Cluster-Computing (2) Von Clustern im engeren Sinn spricht man, wenn die Knoten, die sich in der Regel unter der Kontrolle eines Masters befinden, exklusiv für den Cluster verwendet werden und auf einem gemeinsamen Datenbestand arbeiten. Die Knoten können aus gewöhnlichen PCs aus Standardkomponenten, Workstations, Servern oder Supercomputern bestehen. Stehen die Knoten dem Cluster nur zu bestimmten Zeiten zur Verfügung, spricht man von Feierabendclustern bzw. Cluster of Workstations (COWs) oder auch Network of Workstations (NOWs). Die Knoten eines Feierabendclusters werden während der üblichen Arbeitszeiten als normale Arbeitsrechner eingesetzt. In Clustern mit wenigen Knoten kommen aus Kostengründen Standard- Netzwerktechnologien wie Fast- oder Giga-Ethernet zum Einsatz. Bei größeren Clustern, die aus mehreren hundert Knoten bestehen können, sind Hochgeschwindigkeitsnetzwerke notwendig. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 14

15 Unterscheidungskriterien von Clustern Aufbau homogen heterogen Aufstellungskonzept Glass-House Campus-Wide Einsatzgebiet High Performance Clustering High Availability Clustering High Throughput Clustering Verhalten beim Ausfall von Knoten Active/Passive-Cluster Active/Active-Cluster 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 15

16 Definition des Cluster-Computing (3) Cluster können homogen und heterogen aufgebaut sein 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 16

17 Aufstellungskonzepte von Clustern Glass-House: Der Cluster findet sich in einem speziell dafür reservierten Raum oder Server-Schrank (englisch: Rack). Vorteile: Schnelle Erreichbarkeit aller Komponenten für Wartung und Fehlerbehebung. Knoten können mit Hochgeschwindigkeitsnetzwerken verbunden werden. Höhere Sicherheit gegen Sabotage. Nachteile: Bei einem Stromausfall oder Brand im Gebäude ist der Betrieb des gesamten Clusters gefährdet ist. Campus-Wide: Die Knoten befinden sich in mehreren Gebäuden, verteilt auf das Gelände des Instituts oder Unternehmens. Häufig Network of Workstations oder Feierabendcluster. Die Knoten übernehmen nur in der arbeitsfreien Zeit die Rolle von Cluster-Knoten. Vorteile: Der Cluster ist kaum zu zerstören. Nachteile: Es können keine Hochgeschwindigkeitsnetzwerke verwendet werden. Häufig sind die Knoten unterschiedlich aufgebaut. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 17

18 Aufstellungskonzept Glass-House 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 18

19 Aufstellungskonzept Campus-Wide 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 19

20 Einsatzgebiete von Clustern Cluster existieren für unterschiedliche Einsatzgebiete: High Availability Clustering (HA) High Performance Clustering (HPC) High Throughput Clustering (HTC) Ziel: hohe Verfügbarkeit Ziel: hohe Rechenleistung Ziel: hoher Datendurchsatz 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 20

21 High Availability Clustering (1) Beim High Availability Clustering sind Systeme mit einer hohen Ausfallsicherheit, also Verfügbarkeit, gefordert. Erreicht wird das durch: Redundanz der Knoten und ihrer Komponenten erreicht. Ausschließen eines Single Point of Failure. Redundanz kommt von dem lateinischen Begriff redundare und bedeutet wörtlich übersetzt, dass etwas im Überfluss vorhanden ist. Immer, wenn ein System Komponenten enthält, die zur Arbeit des Systems nicht notwendig sind, aber die Arbeit von baugleichen Komponenten im Fehlerfall übernehmen, bedeutet dies Redundanz. Zwei Möglichkeiten auf den Ausfall von Knoten zu reagieren: Durch den redundanten Einsatz der Knoten besteht die Möglichkeit, die Technik und Vorteile der Mainframes zu einem sehr günstigen Preis nachzubilden und dennoch eine hohe Flexibilität zu erhalten. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 21

22 Verfügbarkeit Die Verfügbarkeit V eines Systems berechnet sich aus der mittleren Betriebszeit, der Mean Time Between Failures (MTBF), geteilt durch die Summe aus MTBF und mittlerer Ausfallzeit, der Mean Time To Repair (MTTR). V = MTBF MTBF + MTTR Um eine hohe Verfügbarkeit des Clusters zu gewährleisten, genügt es nicht, die Knoten und deren Hardware redundant auszulegen. Die Verfügbarkeit kann auch durch den Einsatz von USVs (Unterbrechungsfreie Stromversorgung) erhöht werden. Bei Systemen, die als ausfallsicher deklariert werden, muss jederzeit ein Ersatzrechner zur Verfügung stehen, der im Fehlerfall einspringen und die angebotenen Dienste weiter zur Verfügung stellen kann. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 22

23 High Availability Clustering (2) Beim Clustering für Verfügbarkeit hat nicht die Verfügbarkeit der Knoten Priorität, sondern die Verfügbarkeit der angebotenen Dienste. Es existieren zwei Gruppen von Hochverfügbarkeits-Clustern, die sich in ihrem Verhalten bei Ausfällen von Knoten unterscheiden: Active/Passive-Cluster Active/Active-Cluster 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 23

24 High Availability Clustering Active/Passive Die Gruppe der Active/Passive-Cluster wird auch Hot-Standby- Cluster genannt. Im Normalbetrieb ist mindestens ein Knoten im Zustand Passiv. Die Knoten im Zustand Passiv übernehmen im Normalbetrieb keine Dienste. Fällt ein Knoten aus, übernimmt ein Passiv-Knoten dessen Dienste. Das Übernehmen eines Dienstes durch einen Knoten von einem ausgefallenen Knoten wird als Failover-Funktion bezeichnet. Vorteil: Die Dienste müssen nicht für Cluster-Betrieb ausgelegt sein. Nachteil: Viel potentielle Leistung bleibt im Normalbetrieb. ungenutzt 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 24

25 High Availability Clustering Active/Active Bei der Gruppe der Active/Active-Cluster sind auf allen Knoten die gleichen Dienste aktiv. Alle Knoten sind im Zustand Aktiv. Fallen ein oder mehr Knoten aus, müssen die noch aktiven Knoten deren Dienste mit übernehmen. Vorteil: Bessere Lastverteilung zwischen den Knoten. Nachteil: Die Dienste müssen für den Betrieb in einem Clustern ausgelegt sein, da zeitgleich alle Knoten auf die gleichen Ressourcen zugreifen. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 25

26 High Availability Clustering Failover und Failback Failover Also Failover bezeichnet man die Fähigkeit, beim Ausfall eines Knotens alle Aufgaben automatisch einem anderen Knoten zu übergeben und so die Ausfallzeit zu minimieren. Die Failover-Funktionalität wird gewöhnlich vom eingesetzten Betriebssystem zur Verfügung gestellt. Ein Beispiel ist Heartbeat für Linux. Failback Sind ausgefallene Knoten wieder einsatzbereit, melden sich diese am Cluster zurück und erhalten vom Lastverteiler wieder Jobs. Der Cluster verfügt ab diesem Zeitpunkt wieder über die gleiche Leistungsfähigkeit, die er vor dem Ausfall der Knoten hatte. Dieses Verhalten wird als Failback bezeichnet. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 26

27 Architekturen beim High Availability Clustering Es existieren zwei unterschiedliche Architekturen beim Clustering for Availability: Shared Nothing Shared Disk Beide Architekturen entstanden aus der Problematik, dass beim Clustering for Availability die gleichzeitige Nutzung von Ressourcen durch mehr als einen Knoten notwendig ist. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 27

28 Shared Nothing Architektur Bei der Architektur Shared Nothing hat jeder Knoten eine eigene Speicherressource mit fester Größe. Auch wenn die Ressource physikalisch mit mehreren Knoten verbunden ist, hat doch immer nur ein Knoten Zugriff darauf. Kein Knoten hat Zugriff auf die Ressourcen eines anderen Knotens. Erst beim Auftreten eines Fehlers bei einem Knoten wird die Ressource von einem anderen Knoten übernommen. Vorteil: Es ist kein Lock-Management notwendig. Dadurch entsteht auch kein Protokolloverhead, der die Performance verringern kann. Der Cluster kann theoretisch fast linear skalieren. Nachteil: Es sind höhere Investitionen in Speicherressourcen notwendig sind, da die Daten nicht optimal verteilt werden können. Cluster mit einem Windows-Betriebssystem sind immer Shared Nothing- Cluster. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 28

29 Shared Disk Architektur Bei der Architektur Shared Disk hat jeder Knoten Zugriff auf jede am Cluster angeschlosse Speicherressource. Um die Konsistenz der Daten sicherzustellen, ist ein Lock-Management notwendig. Dabei handelt es sich gewöhnlich um ein Protokoll, das den Zugriff auf die Speicherressourcen koordiniert. Wenn Knoten A auf Daten zugreifen möchte, die gerade durch Knoten B gesperrt wurden, muss Knoten A so lange warten, bis Knoten B seine Operationen auf die Daten abgeschlossen hat. Vorteil: Die anfallenden Datenmengen können gut auf die vorhandenen Ressourcen verteilt werden. Nachteil: Mit zunehmender Anzahl der Knoten wird der Protokolloverhead des Lock-Mechanismus immer größer und die Gesamtperformance des Clusters wird durch die Wartezeiten wegen gelockter Daten verringert. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 29

30 Die Architekturen im Vergleich 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 30

31 High Performance Clustering (1) Beim High Performance Clustering, auch Clustering for Scalability genannt, wird versucht, eine möglichst hohe Rechenleistung zu erreichen. High Performance Cluster erbringen die Leistung von Großrechnern (Mainframes) zu einem deutlich günstigeren Preis. Diese Cluster Bestehen in der Regel aus handelsüblichen PCs oder Workstations. Typtische Anwendungsbereiche sind zum Beispiel: Pipelineberechnungen: Haben eine Sequenz als Ergebnis. Anwendungen, die dem Prinzip des Divide und Conquer folgen. Diese bilden mehrere Teilprobleme, werten diese aus und bilden aus den Ergebnissen das Endergebnis. Anwendungen, die dazu dienen, sehr große Datenbestände auszuwerten. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 31

32 High Performance Clustering (2) Einige Anwendungsbeispiele sind: Crash-Test-Simulation, Wettervorhersagen, Optimierung von Bauteilen, Monte-Carlo-Simulationen, Flugbahnberechnungen, Data Mining, Strömungsberechnungen, Festigkeitsanalysen, Berechnung von Filmen oder Filmsequenzen, Simulationen des Sternenhimmels, Variantenberechnung beim Schach, Primzahlberechnungen, usw. Vorteile: Geringer Preis und Herstellerunabhängigkeit. Defekte Komponenten sind schnell und kostengünstig zu beschaffen. Zusätzliche Knoten steigern die Leistung schnell und einfach. Nachteil: Hoher Administrationsaufwand und Wartungsaufwand im Gegensatz zu Großrechnern. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 32

33 High Performance Clustering Beowulf-Cluster (1) Wird auf einem High Performance Cluster Linux oder ein anderes OpenSource-Betriebssystem verwendet, handelt es sich um einen Beowulf-Cluster. Wird das Betriebssystem Windows verwendet, bezeichnet man das Cluster- System als Wulfpack. Beowulf-Cluster sind keine Feierabendcluster. Sie bestehen zwar aus gewöhnlichen PCs oder Workstations, doch dienen die Knoten eines Beowulf-Cluster ausschließlich der Arbeit des Clusters. Die Bedienung des Clusters erfolgt über einen Master-Knoten. Dieser übernimmt auch die Verteilung der Jobs. Die einzelnen Knoten (Worker Nodes) verfügen in der Regel über keinerlei Eingabe-/Ausgabemöglichkeiten wie Monitor und Tastatur, sondern nur über die Netzwerkverbindung. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 33

34 High Performance Clustering Beowulf-Cluster (2) Ein Problem bei Beowulf-Clustern ist, dass die Knoten aus Standard-PC- Komponenten bestehen und nicht redundant, also auf hohe Verfügbarkeit ausgelegt sind. Eine große Gefahrenquelle für die Knoten eines Beowulf-Clusters ist die Kühlung der System-Komponenten. Die Lüfter in den Knoten und deren Netzteilen haben wie alle mechanischen Komponenten nur eine begrenzte Lebensdauer und fallen oft ohne Vorwarnung aus. Aktuelle Prozessoren, die in PCs eingesetzt werden, sind aber ohne ausreichende Kühlung nicht funktionsfähig. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 34

35 High Throughput Clustering Das High Throughput Clustering ist eine Variante des High Performance Clustering. Das Ziel ist es, den Datendurchsatz zu maximieren. Diese Cluster bestehen aus Servern, die einen Lastenverbund bilden. Auf High Throughput Clustern werden keine umfangreichen Berechnungen durgeführt. Die Aufträge müssen nicht in Teilaufträge unterteilt werden. Die einzelnen Aufträge sind klein und könnten auch von einem einzelnen PC bewältigt werden. Typische Einsatzgebiete im High Throughput Clustering sind Web-Server und Suchmaschinen im Internet. Einzelne große Rechenaufträge = High Performance Cluster Viele kleinere Aufträge in kurzer Zeit = High Throughput Cluster. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 35

36 Skalierbare Cluster Ein Kompromiss zwischen hoher Performance und Hochverfügbarkeit sind skalierbare Cluster. Bei skalierbaren Clustern sind einige oder alle Knoten redundant ausgelegt. In den meisten Fällen handelt es sich um Web- oder Mail-Server. Clients Knoten 1 Knoten 2 Überwachung Lastverteiler Internet Überwachung Knoten 3 Knoten 4 Knoten 1 und 2, sowie Knoten 3 und 4 überwachen sich gegenseitig, damit bei einem Ausfall immer ein Knoten die Dienste des ausgefallenen Knotens übernehmen kann. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 36

37 Klassifikationen von Clustern Cluster High Availability Cluster (HA) (Ziel: Verfügbarkeit) skalierbare Cluster (Ziel: Geschwindigkeit und Verfügbarkeit) High Performance Cluster (HPC) (Ziel: Geschwindigkeit) High Throughput Cluster (HTC) (Ziel: Durchsatz) Active/Passive- Cluster Active/Active- Cluster COW/NOW (Feierabendcluster) reine HPC-Cluster (Hot-Standby) Beowulf (OpenSource) Wulfpack (Windows) 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 37

38 Vorteile und Nachteile von Clustern Vorteile: Flexibilität und Erweiterbarkeit. Ein Cluster kann dynamisch dem Bedarf entsprechend vergrößert oder verkleinert werden. Kostengünstiger in der Anschaffung als Supercomputer. Einfache Wiederbeschaffung von Standardkomponenten. Nachteile: Fehleranfälliger als ein einzelner Supercomputer. Cluster bestehen aus vielen eigenständigen Systemen höherer Administrationsaufwand und damit Personalaufwand als beim Einsatz von einem oder einigen wenigen Supercomputern. Hoher Aufwand zum Verteilen und Kontrollieren von Anwendungen. Der Aufwand steigt mit zunehmender Anzahl der Knoten. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 38

39 Bibliotheken für Cluster-Applikationen Um Applikationen für Cluster zu entwickeln, existieren mehrere Bibliotheken, die von der Architektur und Hardware unabhängiges Message Passing bereitstellen. Beim Message Passing auf verteilten Computersystemen basiert die Kommunikation auf dem Versenden von Nachrichten zu Empfängern. Die am meisten ausgereiften und am weitesten verbreiteten Message Passing Systeme sind: Parallel Virtual Machine (PVM) Message Passing Interface (MPI) 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 39

40 Bibliotheken für Cluster-Applikationen (PVM) Parallel Virtual Machine: Stellt eine einheitliche Programmierschnittstelle bereit, um eine parallele Recheneinheit mit verteiltem Speicher zu erzeugen. Unterstützt C/C++ und Fortran 77/90. Besteht aus einem Dämon, Programmbibiliotheken und Software Tools. Besonders geeignet für heterogene Umgebungen. Konvertiert z.b. automatisch zwischen little endian und big endian. Fokus liegt nicht auf Performance, sondern Portabilität. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 40

41 Bibliotheken für Cluster-Applikationen (MPI) Message Passing Interface: Geeignet, um einen Parallelrechner mit verteiltem oder gemeinsamem. Speicher zu einem virtuellen Parallelrechner zusammenzuschließen. Kommunikationsbibliothek für C/C++ und Fortran 77/90. Enthält keinen Dämon. Kommunikation wird nachrichtenbasiert übertragen (Message Passing). Besonders geeignet für homogene Umgebungen. Fokus liegt auf Performance und Sicherheit. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 41

42 Ein einfaches MPI-Beispiel (1) Ein einfaches Beispiel um viele Prozessoren zu beschäftigen: #include "mpi.h" #include <stdio.h> int main(int argc, char **argv) { int rank, size; // MPI-Umgebung starten MPI_Init(&argc, &argv); // Prüfen, welche Nummer wir sind in der MPI-Umgebung MPI_Comm_rank(MPI_COMM_WORLD, &rank); // Prüfen, wie viele Mitglieder die MPI-Umgebung hat MPI_Comm_size(MPI_COMM_WORLD, &size); // Ausgabe aller Mitglieder der MPI-Umgebung printf("ich bin Prozessor Nr.%d von %d\n", rank, size); // MPI-Umgebung beenden MPI_Finalize(); return 0; } 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 42

43 Ein einfaches MPI-Beispiel (1) Das Programm kompilieren: $ mpicc -g -o hello_world hello_world.c Die Programmausführung auf dem Cluster starten: $ mpirun -np 5 hello_world Das Programm erzeugt bei der Auführung auf 5 CPUs folgende Ausgabe: $ mpirun -np 5 hello_world Ich bin Prozessor Nr.1 von 5 Ich bin Prozessor Nr.3 von 5 Ich bin Prozessor Nr.0 von 5 Ich bin Prozessor Nr.2 von 5 Ich bin Prozessor Nr.4 von 5 Es fällt auf, dass die Reihenfolge der CPUs, die sich melden, zufällig ist. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 43

44 Definition des Grid-Computing Technik zur Integration und gemeinsamen, ortsunabhängigen Nutzung verteilter computergestützter und wissenschaftlicher Ressourcen auf Basis bestehender Kommunikationsinfrastrukturen (= Internet). Ressourcen: Rechen- und Speicherkapazität spezielle und wissenschaftliche Hardware Datenbanken und Dateien Softwareinstallationen Lizenzen Die Grundlage von Grids sind das Prinzip der sogenannten Virtuellen Organisationen. Die Ressourcen gehören in der Regel verschiedenen Organisationen an, die sich um deren Verwaltung selbst kümmern. Mit Grids sollen die Grenzen von IT-Landschaften verschwinden. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 44

45 Definition des Grid-Computing (2) Rechner und Server und Cluster laufen heute in der Regel 24 Stunden pro Tag. Die Systeme sind aber nur selten voll ausgelastet. Nicht genutzte Rechenkapazität soll effizienter genutzt werden. Ein Vergleich mit dem Stromnetz (Electrical Power Grid) drängt sich auf. Auch hier haben wir ein Netzwerk mit Produzenten, Anbietern und Konsumenten. Die Abrechnung des erfolgt bedarfsorientiert. Warum sollte dieses Prinzip nicht auch auf IT-Dienstleistungen abzubilden sein? Problematisch ist, dass IT-Dienste Informationen (Daten) erfassen, speichern und verarbeiten. Diese Informationen unterliegen entsprechend ihrer Klassifizierung gestaffelten Anforderungen an Integrität, Vertraulichkeit und Verfügbarkeit. Für Informationen gelten besondere Rechtliche Rahmenbedingungen, z.b. das Bundesdatenschutzgesetz (BDSG). 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 45

46 Drei Kriterien, die ein Grid erfüllen muss 1. Ein Grid integriert und koordiniert dezentrale Ressourcen unterschiedlichster Art: Standard-PCs, Workstations, Supercomputer und Cluster. Dateien, Datenbanken und Softwarelizenzen. Ausgefallene wissenschaftliche Hardware. z.b. Sternwarten. 2. Grids verwenden offene, standardisierte Protokolle und Schnittstellen und dürfen nicht applikationsspezifisch sein. 3. Grids bieten nicht-triviale Dienste an Die Ressourcen im Grid bieten zusammen viele Möglichkeiten. Der Nutzen eines Grids soll größer sein als die Summe der einzelnen mit dem Grid verbundenen Ressourcen. 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 46

47 Warum überhaupt Grids? e-science! Tycho Brahe ( ) Johannes Kepler ( ) exzellenter Beobachter kein guter Mathematiker hatte gute Daten hervorragender Mathematiker leider kurzsichtig brauchte gute Daten 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 47

48 Wohin mit den vielen Daten? Wissenschaft und Technik produzieren immer großere Datenmengen, die gespeichert und ausgewertet werden müssen Umweltsatelit Envisat = ca. 100 Gigabyte pro Stunde Radioteleskop VLBA = ca. 1 Gigabyte pro Sekunde Large Hadron Collider (LHC) = ca. 12 Petabyte pro Jahr 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 48

49 Wann braucht man Grids? Grids braucht man überall da, wo ein einzelnes Rechenzentrum überfordert wäre und eine massive Verteilung der Daten notwendig ist. Auf welchen wissenschaftlichen Feldern macht der Einsatz von Grids Sinn? Hochenergiephysik Astrophysik Klimaforschung Medizin Ingenieurwissenschaften Eventuell Geisteswissenschaften (Textbasierte Forschung) Grids helfen auch, nationale Interessen zu wahren (Fördermittel) 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 49

50 Zentrale Herausforderungen des Grid-Computing Verfügbarkeit der Ressourcen = Quality of Service Abrechnung der Ressourcen = Accounting & Billing Überwachung der Ressourcen = Monitoring Sicherheit und Datenschutz = Security Einfache Benutzbarkeit = Single Sign-On 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 50

51 Unterscheidung von Grids Computational Grids Rechenleistung ist die am meisten verwendete Ressource. Stichwort Electrical Power Grid (Stromnetz). = Der Konsument nutzt auf einfachste Art die angebotene Leistung. Bestehen aus heterogenen Rechnersystemen. Ziel: Einfacher Zugang zu großer Rechenleistung. Data Grids Speicher aller Art ist die am meisten verwendete Ressource. Stellen ein Portal für den Zugang zu den Datenressourcen bereit. Ziel: Einfacher Zugang zu großen Datenmengen. Grid werden typischwewise nicht mehr für den Austausch einer einzelnen dieser Ressource etabliert, sondern sollen das Teilen aller denkbaren Grid- Ressourcen ermöglichen. Eine Unterscheidung in Computational- und Data-Grids ist daher nicht mehr zeitgemäß! 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 51

52 Klassifikationen von Grids Grid Computational Grid (Ziel: Rechenleistung) Data Grid (Ziel: Speicher) Scavenging Grid (Ziel: Rechenleistung) Desktop Grid High Performance (Cluster) Grid Server Grid Desktop Grids und Server Grids machen wenig Sinn Scavenging Grid bezeichnet vorwiegend Peer-to-Peer Projekte 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 52

53 Unterscheidung: Supercomputer Grid Supercomputer Eine sehr performante, lokale Maschine Homogener Aufbau Gehört in der Regel nur einer Organisation Wenige Administratoren Schnelle Verbindung zwischen den Speicherbereichen (geringe Latenz, hohe Bandbreite) Teuer in der Anschaffung Grid Global verteilte Ressourcen Heterogener Aufbau Verschiedene Organisation und Organisationsformen Viele Administratoren Kommunikation über das Internet (hohe Latenz, geringe Bandbreite) Preiswert in der Anschaffung (Standardkomponenten) 18.VorlesungBetriebssysteme (BTS) Hochschule Mannheim Folie 53

7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim

7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim Christian Baun 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS2010 1/49 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim Christian Baun Forschungszentrum Karlsruhe

Mehr

7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim

7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS2011 1/49 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim Christian Baun, Viktor Mauch

Mehr

9.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim

9.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim Christian Baun 9.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS2010 1/28 9.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim Christian Baun Forschungszentrum Karlsruhe

Mehr

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Cloud-Computing Seminar Hochschule Mannheim WS0910 1/23 Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Fakultät für Informatik Hochschule

Mehr

GRID-Computing vom lokalen zum globalen Ressourcenmanagement

GRID-Computing vom lokalen zum globalen Ressourcenmanagement GRID-Computing vom lokalen zum globalen Ressourcenmanagement Lokal job Master Ressourcen Management Queue1 Queue2... Node 1 Node 2.. Benutzer Cluster Ressourcenmanager: LSF (load sharing facility) OpenPBS

Mehr

8.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim

8.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim Christian Baun 8.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim WS1112 1/67 8.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim Christian Baun wolkenrechnen@gmail.com

Mehr

9.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim

9.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim Christian Baun, Viktor Mauch 9.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS2011 1/31 9.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim Christian Baun, Viktor Mauch

Mehr

Grid Computing. Einführung. Marc Lechtenfeld. Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen

Grid Computing. Einführung. Marc Lechtenfeld. Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen * Grid Computing Einführung Marc Lechtenfeld Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen Übersicht 1 Problematik 2 Systemanforderungen 3 Architektur 4 Implementation 5 Projekte

Mehr

Open Grid Services Architecture (OGSA)

Open Grid Services Architecture (OGSA) Open Grid Services Architecture (OGSA) IBM Red Paper; Fundamentals of Grid Computing, 2002 A d v an ced M id d lew are P ro f. D r. C h. R eich rc h @ fh-furtw angen.d e http://www.informatik.fh-furtwangen.de/~reich/advancedmiddlewareallg.ss05/index.html

Mehr

glite Testbed am RRZN und Workload Management Grid Seminar 2005 Stefan Piger, Jan Wiebelitz

glite Testbed am RRZN und Workload Management Grid Seminar 2005 Stefan Piger, Jan Wiebelitz glite Testbed am RRZN und Workload Management Grid Seminar 2005 Stefan Piger, Jan Wiebelitz Agenda Europäische Grid-Projekte/Middleware LHC/LCG EGEE/gLite glite Testbed am RRZN Jobablauf in glite beteiligte

Mehr

Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT

Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Folie 1 VDE-Symposium 2013 BV Thüringen und Dresden Virtualisierung von Leittechnikkomponenten Andreas Gorbauch PSIEnergie-EE Folie

Mehr

Grid Computing. Siegmar Alber 0720046 salber@cosy.sbg.ac.at Universität Salzburg. Luca Debiasi 0720045 ldebiasi@cosy.sbg.ac.at Universität Salzburg

Grid Computing. Siegmar Alber 0720046 salber@cosy.sbg.ac.at Universität Salzburg. Luca Debiasi 0720045 ldebiasi@cosy.sbg.ac.at Universität Salzburg Grid Computing Luca Debiasi 0720045 ldebiasi@cosy.sbg.ac.at Universität Salzburg Siegmar Alber 0720046 salber@cosy.sbg.ac.at Universität Salzburg 13.03.2009 1 Inhaltsverzeichnis 1 Einleitung 3 2 Aufbau

Mehr

Grid Computing für datenintensive Anwendungen

Grid Computing für datenintensive Anwendungen Grid Computing für datenintensive Anwendungen Andreas Schreiber Deutsches Zentrum für Luft- und Raumfahrt e.v. (DLR) Köln-Porz Workshop "Wege aus dem Daten-Chaos" Köln-Porz, 16. Mai 2002 1 Überblick Einleitung

Mehr

Anwendungen. Miroslawa Utzka Oktober 2004. Grid Computing

Anwendungen. Miroslawa Utzka Oktober 2004. Grid Computing Anwendungen Miroslawa Utzka Oktober 2004 Grid Computing Übersicht Einleitung Einsatzgebiete und Beispielprojekte Grid Anwendungen BOINC Projekte rund um BOINC Seti@home Ausblick Wenn Kosten eine Rolle

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de

Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften Agenda Einleitung Vor- und Nachteile der Virtualisierung Virtualisierungssoftware

Mehr

Abschlussvortrag zur Bachelorarbeit. Konzeption und Aufbau eines Grid Testlabors am Beispiel des Globus Toolkit 4

Abschlussvortrag zur Bachelorarbeit. Konzeption und Aufbau eines Grid Testlabors am Beispiel des Globus Toolkit 4 Abschlussvortrag zur Bachelorarbeit Konzeption und Aufbau eines Grid Testlabors am Beispiel des Globus Toolkit 4 Halit Alagöz Fachgebiet Distributed Virtual Reality (DVR) Lehrgebiet Rechnernetze H. Alagöz

Mehr

Red Hat Cluster Suite

Red Hat Cluster Suite Red Hat Cluster Suite Building high-available Applications Thomas Grazer Linuxtage 2008 Outline 1 Clusterarten 2 3 Architektur Konfiguration 4 Clusterarten Was ist eigentlich ein Cluster? Wozu braucht

Mehr

IT-Lösungsplattformen

IT-Lösungsplattformen IT-Lösungsplattformen - Server-Virtualisierung - Desktop-Virtualisierung - Herstellervergleiche - Microsoft Windows 2008 für KMU s Engineering engineering@arcon.ch ABACUS Kundentagung, 20.11.2008 1 Agenda

Mehr

Informatikdienste Virtualisierung im Datacenter mit VMware vsphere

Informatikdienste Virtualisierung im Datacenter mit VMware vsphere Virtualisierung im Datacenter mit ware vsphere Luzian Scherrer, ID-IS-SYS1 Virtual Center Virtualisierung im Datacenter mit ware vsphere Luzian Scherrer, ID-IS-SYS1 Cloud SaaS otion DRS ware otion Fault

Mehr

Grundlagen des Grid Computing

Grundlagen des Grid Computing Grundlagen des Grid Computing Grid Middleware Toolkits: glite ICA Joh.. Kepler Universität t Linz glite Grid Middleware für das LHC Grid Wurde im Rahmen des EGEE Projekts entwickelt Basiert auf dem Globus

Mehr

Verkürzung von Entwurfszeiten

Verkürzung von Entwurfszeiten Verkürzung von Entwurfszeiten durch Matlab-basiertes HPC R. Fink, S. Pawletta Übersicht aktuelle Situation im ingenieurtechnischen Bereich Multi-SCEs als Konzept zur Verkürzung von Entwurfszeiten Realisierung

Mehr

8.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim

8.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim Christian Baun, Viktor Mauch 8.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS2011 1/43 8.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim Christian Baun, Viktor Mauch

Mehr

Das LHC-Computing-Grid

Das LHC-Computing-Grid Das LHC-Computing-Grid Von Julian Gethmann WS 11/12 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Überblick Ansprüche an die Rechnerinfrastruktur

Mehr

Virtualisierung in der Automatisierungstechnik

Virtualisierung in der Automatisierungstechnik Virtualisierung in der Automatisierungstechnik Ihr Referent Jürgen Flütter on/off engineering gmbh Niels-Bohr-Str. 6 31515 Wunstorf Tel.: 05031 9686-70 E-Mail: juergen.fluetter@onoff-group.de 2 Virtualisierung

Mehr

Grid-Computing in der Hochenergiephysik

Grid-Computing in der Hochenergiephysik Grid-Computing in der Hochenergiephysik Auf dem Weg zum Grid (EDG-Tutorial, Cristophe Jaquet) Once upon a time.. Microcomputer Mini Computer Cluster Auf dem Weg zum Grid (EDG-Tutorial, Cristophe Jaquet)

Mehr

TECHNISCHE PRODUKTINFORMATION CARUSO

TECHNISCHE PRODUKTINFORMATION CARUSO 1111 TECHNISCHE PRODUKTINFORMATION CARUSO TECHNISCHE PRODUKTINFORMATION Seite 0/7 Inhalt 1 Systemdefinition............2 2 Technische Details für den Betrieb von CARUSO......2 2.1 Webserver... 2 2.2 Java

Mehr

internationalen Verbund

internationalen Verbund University of Applied Sciences 1 zur Optimierung der Wertschöpfungsketten Hochleistungsrechnen für Wissenschaft und Wirtschaft im internationalen Verbund Prof. Dr. rer. nat. Christian Schröder stellv.

Mehr

High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO

High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO Anastasios Stomas SFI Technology Services AG 12. März 2003 anastasios.stomas@sfi.ch Seite 1 Hintergrund INHALT Cluster-

Mehr

INHALT 1.) Einleitung... 2

INHALT 1.) Einleitung... 2 Cluster Dateisysteme Ausarbeitung zum Vortrag im Rahmen des Proseminars Speicher- und Dateisysteme an der Universität Hamburg im Sommersemester 2012 Betreuer: Michael Kuhn Michaela Zimmer Ausgearbeitet

Mehr

Windows Server 2003 Cluster. Kompetenzabend bei LayerDREI EDV-Schulungen

Windows Server 2003 Cluster. Kompetenzabend bei LayerDREI EDV-Schulungen Windows Server 2003 Cluster Kompetenzabend bei LayerDREI EDV-Schulungen Agenda Begrüßung Vorstellung LayerDREI + IT-Training Grote Clustergrundlagen Windows Cluster Historie Hardware Cluster vs. NLB Windows

Mehr

IT Storage Cluster Lösung

IT Storage Cluster Lösung @ EDV - Solution IT Storage Cluster Lösung Leistbar, Hochverfügbar, erprobtes System, Hersteller unabhängig @ EDV - Solution Kontakt Tel.: +43 (0)7612 / 62208-0 Fax: +43 (0)7612 / 62208-15 4810 Gmunden

Mehr

RAID Redundant Array of Independent [Inexpensive] Disks

RAID Redundant Array of Independent [Inexpensive] Disks RAID Redundant Array of Independent [Inexpensive] Disks Stefan Wexel Proseminar Algorithms and Data Structures im WS 2011/2012 Rheinisch-Westfälische Technische Hochschule Aachen Lehrstuhl für Informatik

Mehr

Service Oriented Architecture für Grid-Computing

Service Oriented Architecture für Grid-Computing Service Oriented Architecture für Grid-Computing Service Oriented Architecture für Grid-Computing Berlin/Brandenburger Softwareforum 24.08.2005 Andreas Hoheisel (andreas.hoheisel@first.fraunhofer.de) Seite

Mehr

So erreichen Sie uns:

So erreichen Sie uns: für Das I Ho chp hre in Clus t d erf orm ividu ersy e s ll ant, sic en Be tem dü her und rfnis pre se. isw ert. So erreichen Sie uns: Contabo GmbH Aschauer Straße 32 a 81549 München +49 (0) 89 / 212 683

Mehr

Netzwerke. Teil 1. Funktionen Architekturen. Folie 1. Warum Netzwerke?

Netzwerke. Teil 1. Funktionen Architekturen. Folie 1. Warum Netzwerke? Netzwerke Teil 1 Funktionen Architekturen BS-T- HGW Folie 1 Warum Netzwerke? Die Idee lokaler Netze basiert auf dem Konzept, gleichberechtigte und in ihrer Grundfunktion autonome Rechner über eine Kommunikationseinrichtung

Mehr

XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25

XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25 XEN Performance Projektpraktikum Informatik Arne Klein 2008-02-26 Arne Klein () XEN Performance 2008-02-26 1 / 25 1 Virtualisierung mit XEN 2 Performance von XEN Allgemeines Netzwerk-Performance IO-Performance

Mehr

Hochverfügbarkeit eines Server-Systems Dr. Stephan Pettinger 7-it 1 Hochverfügbarkeit Theorie Definition Hochverfügbarkeit Kopplung von Systemen Single Point of Failure Hochverfügbarkeitscluster Linux-HA-Architektur

Mehr

So erreichen Sie uns:

So erreichen Sie uns: für Das I Ho chp hre in Clus t d erf orm ividu ersy e s ll ant, sic en Be tem dü her und rfnis pre se. isw ert. So erreichen Sie uns: Giga-Hosting GmbH Aschauer Straße 32 a 81549 München +49 (0) 89 / 212

Mehr

Tier-Konzepte. Vertiefungsarbeit von Karin Schäuble

Tier-Konzepte. Vertiefungsarbeit von Karin Schäuble Vertiefungsarbeit von Karin Schäuble Gliederung 1. Einführung 3. Rahmenbedingungen in der heutigen Marktwirtschaft 3.1 Situation für Unternehmen 3.2 Situation für Applikationsentwickler 4. Lösungskonzepte

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

Virtualisierung im IT-Betrieb der BA

Virtualisierung im IT-Betrieb der BA Virtualisierung, essenzielles Werkzeug in der IT-Fabrik Martin Deeg, Anwendungsszenarien Cloud Computing, 31. August 2010 Virtualisierung im IT-Betrieb der BA Virtualisierung im IT-Betrieb der BA Effizienzsteigerung

Mehr

Clustering und Failover mit Linux

Clustering und Failover mit Linux Grazer Linux-Tage 2003 25. April Markus Oswald Worum geht es? Load-Balanced Cluster Failover Cluster Shared Storage Computational Cluster Beowulf Distributed Computing Worum es nicht

Mehr

Instant-Grid ein Grid in 15 Minuten

Instant-Grid ein Grid in 15 Minuten Instant-Grid ein Grid in 15 Minuten Vortrag von Andreas Félix beim Practical Linux Forum des LinuxTag 2006 Gesellschaft für wissenschaftliche Datenverarbeitung Göttingen mbh Übersicht über den Vortrag

Mehr

Verfügbarkeit von Applikationen und Failover Szenarien. Winfried Wojtenek. wojtenek@mac.com

Verfügbarkeit von Applikationen und Failover Szenarien. Winfried Wojtenek. wojtenek@mac.com Verfügbarkeit von Applikationen und Failover Szenarien Winfried Wojtenek wojtenek@mac.com Verfügbarkeit % Tage Stunden Minuten 99.000 3 16 36 99.500 1 20 48 99.900 0 9 46 99.990 0 0 53 99.999 0 0 5 Tabelle

Mehr

Ralf Enderle 19.11.07. Grid Computing. Seminar am Institut für verteilte Systeme im WS 07/08 - Forschungstrends im Bereich Verteilte Systeme -

Ralf Enderle 19.11.07. Grid Computing. Seminar am Institut für verteilte Systeme im WS 07/08 - Forschungstrends im Bereich Verteilte Systeme - Ralf Enderle 19.11.07 Grid Computing Seminar am Institut für verteilte Systeme im WS 07/08 - Forschungstrends im Bereich Verteilte Systeme - Seite 2 Inhalt Einleitung Konzeptueller Aufbau eines Grid Systems

Mehr

Systeme 1. Kapitel 10. Virtualisierung

Systeme 1. Kapitel 10. Virtualisierung Systeme 1 Kapitel 10 Virtualisierung Virtualisierung Virtualisierung: Definition: Der Begriff Virtualisierung beschreibt eine Abstraktion von Computerhardware hin zu einer virtuellen Maschine. Tatsächlich

Mehr

Desktopvirtualisierung 2009 ACP Gruppe

Desktopvirtualisierung 2009 ACP Gruppe Konsolidieren Optimieren Automatisieren Desktopvirtualisierung Was beschäftigt Sie Nachts? Wie kann ich das Desktop- Management aufrechterhalten oder verbessern, wenn ich mit weniger mehr erreichen soll?

Mehr

Grundlagen der Parallelisierung

Grundlagen der Parallelisierung Grundlagen der Parallelisierung Philipp Kegel, Sergei Gorlatch AG Parallele und Verteilte Systeme Institut für Informatik Westfälische Wilhelms-Universität Münster 3. Juli 2009 Inhaltsverzeichnis 1 Einführung

Mehr

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1 Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer

Mehr

ROSIK Mittelstandsforum

ROSIK Mittelstandsforum ROSIK Mittelstandsforum Virtualisierung und Cloud Computing in der Praxis Virtualisierung in der IT Einführung und Überblick Hermann Josef Klüners Was ist Virtualisierung? In der IT ist die eindeutige

Mehr

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at

Mehr

Mit Clustertechnik zu mehr Verfügbarkeit:

Mit Clustertechnik zu mehr Verfügbarkeit: Mit Clustertechnik zu mehr Verfügbarkeit: Überraschend kostengünstig umgesetzt mit Open Source Werner Fischer, Thomas-Krenn.AG Perspektive Open Source Systems 2006 25. Oktober 2006 Folie 1/20 Agenda 1.

Mehr

56 Maßnahmen zur Sicherung der Verfügbarkeit in Oracle-Umgebungen. Client Client Client Client Client. Public Network. aktiv. Private Network.

56 Maßnahmen zur Sicherung der Verfügbarkeit in Oracle-Umgebungen. Client Client Client Client Client. Public Network. aktiv. Private Network. 56 Maßnahmen zur Sicherung der Verfügbarkeit in Oracle-Umgebungen aktiv inaktiv Node 1 ( Aktiv ) Node 2 ( Passiv ) Private Network aktiv inaktiv (exklusiver Zugriff) Abbildung 3.1: Schematische Darstellung

Mehr

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2.

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2. Cloud Computing Frank Hallas und Alexander Butiu Universität Erlangen Nürnberg, Lehrstuhl für Hardware/Software CoDesign Multicorearchitectures and Programming Seminar, Sommersemester 2013 1. Definition

Mehr

Mailbox Cluster Konzepte

Mailbox Cluster Konzepte Ideen für grosse Mailstores Mailbox Cluster Konzepte Felix J. Ogris (fjo@dts.de) Version 1.0 2008-05-25 Inhaltsverzeichnis Inhaltsverzeichnis Inhaltsverzeichnis 1 Schema 4 2 Storage 5 2.1 Mailbox- und

Mehr

Virtual System Cluster: Freie Wahl mit Open Source

Virtual System Cluster: Freie Wahl mit Open Source Virtual System Cluster: Freie Wahl mit Open Source LPI Partnertagung 2012 Sprecher: Uwe Grawert http://www.b1-systems.de 24. April 2012 c B1 Systems GmbH 2004 2012 Chapter -1, Slide 1 Freie Wahl beim Virtual

Mehr

Client/Server-Systeme

Client/Server-Systeme Fachbereich Informatik Projektgruppe KOSI Kooperative Spiele im Internet Client/Server-Systeme Vortragender Jan-Ole Janssen 26. November 2000 Übersicht Teil 1 Das Client/Server-Konzept Teil 2 Client/Server-Architekturen

Mehr

Thin versus Fat Clients

Thin versus Fat Clients Justus-Liebig-Universität Gießen Professur für BWL und Wirtschaftsinformatik Univ.-Prof. Axel C. Schwickert Thema Seminar zur Wirtschaftsinformatik im Wintersemester 01/02 03. / 04. April 2002 Thin versus

Mehr

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG!

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! JUNI 2011 Sehr geehrter Geschäftspartner, (oder die, die es gerne werden möchten) das Thema Virtualisierung oder die Cloud ist in aller Munde wir möchten Ihnen

Mehr

Universal Mobile Gateway V4

Universal Mobile Gateway V4 PV-Electronic, Lyss Universal Mobile Gateway V4 Autor: P.Groner Inhaltsverzeichnis Allgemeine Informationen... 3 Copyrightvermerk... 3 Support Informationen... 3 Produkte Support... 3 Allgemein... 4 Definition

Mehr

Virtualisierung in der Automatisierungstechnik

Virtualisierung in der Automatisierungstechnik Virtualisierung in der Automatisierungstechnik Ihr Referent Jürgen Flütter on/off engineering gmbh Niels-Bohr-Str. 6 31515 Wunstorf Tel.: 05031 9686-70 E-Mail: juergen.fluetter@onoff-group.de 2 Virtualisierung

Mehr

Virtuelle Infrastrukturen mit Linux...

Virtuelle Infrastrukturen mit Linux... Virtuelle Infrastrukturen mit Linux...... und deren Integration in OSL SC Christian Schmidt Systemingenieur Virtualisierung "Aufteilung oder Zusammenfassung von Ressourcen" Unterschiedliche Bereiche für

Mehr

Hochverfügbare Server-Hardware: Eine Fallstudie (Logistik-Zentrum)

Hochverfügbare Server-Hardware: Eine Fallstudie (Logistik-Zentrum) Hochverfügbare Server-Hardware: Eine Fallstudie (Logistik-Zentrum) Anforderungen aus heutiger Sicht Wesentliche Merkmale der Anwendung Leistungsbestimmende Komponenten Zuverlässigkeitsbestimmende Komponenten

Mehr

Betriebssysteme Kap A: Grundlagen

Betriebssysteme Kap A: Grundlagen Betriebssysteme Kap A: Grundlagen 1 Betriebssystem Definition DIN 44300 Die Programme eines digitalen Rechensystems, die zusammen mit den Eigenschaften dieser Rechenanlage die Basis der möglichen Betriebsarten

Mehr

Version 2.0. Copyright 2013 DataCore Software Corp. All Rights Reserved.

Version 2.0. Copyright 2013 DataCore Software Corp. All Rights Reserved. Version 2.0 Copyright 2013 DataCore Software Corp. All Rights Reserved. VDI Virtual Desktop Infrastructure Die Desktop-Virtualisierung im Unternehmen ist die konsequente Weiterentwicklung der Server und

Mehr

Hochleistungsrechnen in Grids. Seminar: Grid-Middleware. Mirko Dietrich mirko.dietrich@hrz.uni-kassel.de. 4. Dezember 2006

Hochleistungsrechnen in Grids. Seminar: Grid-Middleware. Mirko Dietrich mirko.dietrich@hrz.uni-kassel.de. 4. Dezember 2006 Seminar: Hochleistungsrechnen in Grids Grid-Middleware Mirko Dietrich mirko.dietrich@hrz.uni-kassel.de 4. Dezember 2006 2 Inhalt Funktionen einer Grid-Middleware Grid Standards Middleware-Systeme Zusammenfassung

Mehr

Grundkonzepte der Vernetzung

Grundkonzepte der Vernetzung Grundkonzepte der Vernetzung Peer-to-Peer vs. Client-Server Beispiele für Serverdienste Christian-Weise-Gymnasium Zittau - Mirko Hans 1 Aufgabenstellung Die beiden Grundkonzepte der Vernetzung heißen peer-topeer

Mehr

Projekt im Sommersemester 2008. Complex and Distributed IT-Systems TU Berlin

Projekt im Sommersemester 2008. Complex and Distributed IT-Systems TU Berlin Virtuelle Systeme Projekt im Sommersemester 2008 Complex and Distributed IT-Systems TU Berlin Beispiel: VMWare 24.10.2007 CIT, Einführung Projekt Virtualisierung 2 Virtualisierung 24.10.2007 CIT, Einführung

Mehr

RAC auf Sun Cluster 3.0

RAC auf Sun Cluster 3.0 RAC auf Sun Cluster 3.0 Schlüsselworte RAC, OPS, Sun Cluster, Performance, Availability Zusammenfassung Oracle hat mit dem Real Application Cluster (RAC) aus einer Hochverfügbarkeitslösung eine Höchstverfügbarkeitslösung

Mehr

Oracle Database 10g Die RAC Evolution

Oracle Database 10g Die RAC Evolution Oracle Database 10g Die RAC Evolution Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 RAC-Revolution, RAC-Evolution & Computing Oracle8i mit OPS Oracle9i Rel.

Mehr

Ausfallsicherheit maßgeschneidert

Ausfallsicherheit maßgeschneidert Wir unternehmen IT. Ausfallsicherheit maßgeschneidert Bringen Sie Kosten und Nutzen in Einklang! Henning von Kielpinski Head of Business Development Henning.von.Kielpinski@consol.de Hochverfügbarkeit Risiken

Mehr

IT-Monitoring braucht Sicherheit Sicherheit braucht Monitoring. Günther Klix op5 GmbH - Area Manager D/A/CH

IT-Monitoring braucht Sicherheit Sicherheit braucht Monitoring. Günther Klix op5 GmbH - Area Manager D/A/CH IT-Monitoring braucht Sicherheit Sicherheit braucht Monitoring Günther Klix op5 GmbH - Area Manager D/A/CH Technische Anforderungen an IT Immer komplexere & verteiltere Umgebungen zunehmend heterogene

Mehr

Herzlich willkommen! gleich geht es weiter

Herzlich willkommen! gleich geht es weiter Herzlich willkommen! gleich geht es weiter Thomas Gruß Dipl.-Inform. (FH) Gruß + Partner GmbH Inhabergeführtes IT Systemhaus Seit über 15 Jahren im Rhein-Main und Rhein- Neckargebiet tätig 10 Mitarbeiter

Mehr

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2 Seminar Cloud Data Management WS09/10 Tabelle1 Tabelle2 1 Einführung DBMS in der Cloud Vergleich verschiedener DBMS Beispiele Microsoft Azure Amazon RDS Amazon EC2 Relational Databases AMIs Was gibt es

Mehr

Neue Ansätze der Softwarequalitätssicherung

Neue Ansätze der Softwarequalitätssicherung Neue Ansätze der Softwarequalitätssicherung Googles MapReduce-Framework für verteilte Berechnungen am Beispiel von Apache Hadoop Universität Paderborn Fakultät für Elektrotechnik, Informatik und Mathematik

Mehr

Storage-Trends am LRZ. Dr. Christoph Biardzki

Storage-Trends am LRZ. Dr. Christoph Biardzki Storage-Trends am LRZ Dr. Christoph Biardzki 1 Über das Leibniz-Rechenzentrum (LRZ) Seit 50 Jahren Rechenzentrum der Bayerischen Akademie der Wissenschaften IT-Dienstleister für Münchner Universitäten

Mehr

Proseminar Technische Informatik A survey of virtualization technologies

Proseminar Technische Informatik A survey of virtualization technologies Proseminar Technische Informatik A survey of virtualization technologies Referent: Martin Weigelt Proseminar Technische Informatik - A survey of virtualization technologies 1 Übersicht 1. Definition 2.

Mehr

Werner Rudolf 4.3.2005 Seite 1. Hochverfügbarkeitstechnologien in der IT

Werner Rudolf 4.3.2005 Seite 1. Hochverfügbarkeitstechnologien in der IT Seite 1 Hochverfügbarkeitstechnologien in der IT Seite 2 Hochverfügbarkeitstechnologien Seite 3 Hochverfügbarkeitstechnologien Agenda Einführung (Grundbegriffe, Kenngrößen etc.) Einordnung verschiedener

Mehr

Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation

Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation 1 Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation Dr. G. Wellein, Regionales Rechenzentrum Erlangen Supercomputer

Mehr

Peer-to-Peer (P2P) Grundlagen

Peer-to-Peer (P2P) Grundlagen Semantische Analyse des Internet (9) Peer-to-Peer (P2P) Grundlagen Markus Gräser, 8.6.2004 Gliederung Definition Geschichte P2P-Netzwerk-Architekturen Anwendungsgebiete Populäre File-Sharing Systeme Technische

Mehr

Konsolidieren Optimieren Automatisieren. Virtualisierung 2.0. Klaus Kremser Business Development ACP Holding Österreich GmbH.

Konsolidieren Optimieren Automatisieren. Virtualisierung 2.0. Klaus Kremser Business Development ACP Holding Österreich GmbH. Konsolidieren Optimieren Automatisieren Virtualisierung 2.0 Klaus Kremser Business Development ACP Holding Österreich GmbH Business today laut Gartner Group Der Erfolg eines Unternehmen hängt h heute von

Mehr

Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund

Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund Das Wissenschaftlichen Rechnen hat sich in Forschung und Lehre in den letzten Jahren zu einem wichtigen

Mehr

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221 Oracle 10g und SQL Server 2005 ein Vergleich Thomas Wächtler 39221 Inhalt 1. Einführung 2. Architektur SQL Server 2005 1. SQLOS 2. Relational Engine 3. Protocol Layer 3. Services 1. Replication 2. Reporting

Mehr

Die EBCONT Unternehmensgruppe.

Die EBCONT Unternehmensgruppe. 1200 Wien, Handelskai 94-96 Johannes Litschauer, Alex Deles IT-Infrastruktur IT-Betrieb (managed Services) Cloud / Elastizität 1200 Wien, Handelskai 94-96 Johannes Litschauer, Alex Deles Enterprise Solutions

Mehr

Band M, Kapitel 5: Server

Band M, Kapitel 5: Server Bundesamt für Sicherheit in der Informationstechnik Postfach 20 03 63 53133 Bonn Tel.: +49 22899 9582-0 E-Mail: Hochverfuegbarkeit@bsi.bund.de Internet: https://www.bsi.bund.de Bundesamt für Sicherheit

Mehr

EMC ISILON & TSM. Hans-Werner Rektor Advisory System Engineer Unified Storage Division. Oktober 2013

EMC ISILON & TSM. Hans-Werner Rektor Advisory System Engineer Unified Storage Division. Oktober 2013 EMC ISILON & TSM Hans-Werner Rektor Advisory System Engineer Unified Storage Division Oktober 2013 1 Tivoli Storage Manager - Überblick Grundsätzliche Technologie Incremental Forever Datensicherungsstrategie

Mehr

Erweiterung einer D-Grid Ressource um eine Compute Cloud Schnittstelle

Erweiterung einer D-Grid Ressource um eine Compute Cloud Schnittstelle am am Erweiterung einer D-Grid Ressource um eine Compute Schnittstelle 3. DFN-Forum 2010 Kommunikationstechnologien Verteilte Systeme im Wissenschaftsbereich Stefan Freitag Institut für Roboterforschung

Mehr

Grundlagen der Rechnerarchitektur

Grundlagen der Rechnerarchitektur Grundlagen der Rechnerarchitektur Einführung Unsere erste Amtshandlung: Wir schrauben einen Rechner auf Grundlagen der Rechnerarchitektur Einführung 2 Vorlesungsinhalte Binäre Arithmetik MIPS Assembler

Mehr

Das virtuelle Rechenzentrum

Das virtuelle Rechenzentrum Das virtuelle Rechenzentrum Erfahrungen, Meinungen, Visionen CON.ect Informunity Infrastrukturmanagement, Virtualisierung & Green IT Wien, 26.3.2009 Georg Chytil, Ing. Andreas Schoder georg.chytil@nextlayer.at,

Mehr

Vorlesung Methoden des Software Engineering. Martin Wirsing. Einheit B.2, 09.11.2006

Vorlesung Methoden des Software Engineering. Martin Wirsing. Einheit B.2, 09.11.2006 Block B (Software-Architektur): Systemarchitektur 09.11.2006 1 Vorlesung Methoden des Software Engineering Block B Software Architektur Systemarchitektur Martin Wirsing Einheit B.2, 09.11.2006 Block B

Mehr

WIE ERHÖHT MAN DIE EFFIZIENZ DES BESTEHENDEN RECHENZENTRUMS UM 75% AK Data Center - eco e.v. 1. Dezember 2009

WIE ERHÖHT MAN DIE EFFIZIENZ DES BESTEHENDEN RECHENZENTRUMS UM 75% AK Data Center - eco e.v. 1. Dezember 2009 WIE ERHÖHT MAN DIE EFFIZIENZ DES BESTEHENDEN RECHENZENTRUMS UM 75% AK Data Center - eco e.v. 1. Dezember 2009 HOST EUROPE GROUP Größter Anbieter von standardisierten Managed Hosting Lösungen in Deutschland

Mehr

Cloud Computing: schlanker Client Daten und Programme im Internet

Cloud Computing: schlanker Client Daten und Programme im Internet Cloud Computing: schlanker Client Daten und Programme im Internet Horst Bratfisch Bereichsleiter IT Infrastructure Raiffeisen Informatik Juni 2010 IT Trends 2010 Herausforderungen eines modernen Rechenzentrums

Mehr

Private Cloud mit Eucalyptus am SCC

Private Cloud mit Eucalyptus am SCC Private Cloud mit Eucalyptus am SCC Christian Baun 15. Dezember 2009 KIT The cooperation of Forschungszentrum Karlsruhe GmbH und Universität Karlsruhe (TH) http://www.kit.edu Cloud-Comuting = Grid-Computing?!

Mehr

Was darf das Grid kosten?

Was darf das Grid kosten? Was darf das Grid kosten? Dr. Marcel Kunze Steinbuch Centre for Computing Abteilung Integration und Virtualisierung Die Kooperation von Darf das Grid was kosten? Infrastruktur: Geschäftsmodell oder Sponsoring?

Mehr

SECURITYDAY.07. Linux Hochverfügbarkeit

SECURITYDAY.07. Linux Hochverfügbarkeit SECURITYDAY.07 Linux Hochverfügbarkeit Werner Fischer Research & Development Thomas-Krenn.AG Thomas Krenn SECURITYDAY.07, 14. November 2007, Freyung 1/25 Agenda 1) Überblick Cluster-Technologien 2) Best

Mehr

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte I N F O R M A T I O N V I R T U A L I S I E R U N G Wir schützen Ihre Unternehmenswerte Wir schützen Ihre Unternehmenswerte Ausfallsicherheit durch Virtualisierung Die heutigen Anforderungen an IT-Infrastrukturen

Mehr

Klein Computer System AG. Portrait

Klein Computer System AG. Portrait Klein Computer System AG Portrait Die Klein Computer System AG wurde 1986 durch Wolfgang Klein mit Sitz in Dübendorf gegründet. Die Geschäftstätigkeiten haben sich über die Jahre stark verändert und wurden

Mehr

Prototypvortrag. Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning. Projektseminar WS 2009/10

Prototypvortrag. Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning. Projektseminar WS 2009/10 Prototypvortrag Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning Projektseminar WS 2009/10 Eugen Fot, Sebastian Kenter, Michael Surmann AG Parallele

Mehr

Systemanforderungen für MSI-Reifen Release 7

Systemanforderungen für MSI-Reifen Release 7 Systemvoraussetzung [Server] Microsoft Windows Server 2000/2003/2008* 32/64 Bit (*nicht Windows Web Server 2008) oder Microsoft Windows Small Business Server 2003/2008 Standard od. Premium (bis 75 User/Geräte)

Mehr