Cluster Computing / Grids

Größe: px
Ab Seite anzeigen:

Download "Cluster Computing / Grids"

Transkript

1 Johannes Kepler Universität Linz Cluster Computing / Grids SEMINARARBEIT Seminar: Betriebssysteme Eingereicht von: Allerstorfer Martin, Söllradl Gerhard, Angefertigt am: Institut für Informationsverarbeitung und Mikroprozessortechnik Betreuung: Putzinger Andreas Linz, Juni 2005

2 Abstract Dieses Dokument beschreibt, warum Cluster Computing und Grids eingesetzt werden bzw. was man darunter versteht und wie solche Netze aufgebaut sind. Im Speziellen wird auf die Ebene des Betriebssystems und deren Vorraussetzungen und Leistungsmerkmale, welche in diesem Einsatzgebiet entscheidend sind, eingegangen. Weiters wird in einem eigenen Kapitel beschrieben, ob gängige Betriebssysteme, wie Windows, Linux, Mac OS und Solaris, in Cluster oder Grids eingesetzt werden. In diesem Zusammenhang, werden einige ausgewählte Projekte vorgestellt, die im Bereich des Cluster und Grid Computing durchgeführt werden. Am Ende des Dokuments wird noch ein Ausblick gegeben, wie es in Zukunft mit Cluster Computing und Grids weitergehen wird und welche Zukunft diese Techniken haben werden. 1

3 Inhaltsverzeichnis 1. Einleitung Grund für den Einsatz von Clusters und Grids Was versteht man unter Grid Computing Rechen-Grids (verteiltes Supercomputing, computational grids) Daten-Grids (data grids) Kollaboratives Grid Computing Was versteht man unter Cluster Computing Übersicht Aufbau eines Cluster Knoten Cluster Middleware Verbindungsnetzwerk Betriebssystem und Hardware Beispiel Cluster Myrinet Cluster X-Cluster Beispiel Grid Austrian Grid OS-Ebene Funktionsweise eines Betriebssystem im Rechnernetz [UNB4-2005]: Überwachung Steuerung Ressourcenmanagement und Scheduling Parallelrechnerprogrammierung Verteilte Betriebssysteme Arten von verteilten Betriebssystemen Übersicht über bereits existierende Betriebssysteme Plan Unicore Open Grid Service Architecture (Ogsa) Avaki EII Plus HP Open VMS Rocks Cluster Distribution - Redhat Leistungsmerkmale von verteilten Betriebsystemen Kommunikationsaufwand Redundanz Transparenz Ausfallsicherheit Derzeitige Einsetzbarkeit im herkömmlichen OS Linux und Unix Windows Mac OS Solaris Ausblick Zukunft des Clustered Computing Aktuelle Forschungsprojekte

4 Beispiel: Health Grid Literaturverzeichnis

5 1. Einleitung 1.1 Grund für den Einsatz von Clusters und Grids Obwohl die Rechner immer schneller und kleiner werden, werden gewisse physikalische Grenzen nie überschritten werden können. Schon heute setzen die zwei größten Hersteller von Prozessoren, Intel und AMD, nicht mehr alleine auf eine CPU. Sie versuchen mehrere CPUs auf einem Chip unterzubringen, um wieder signifikante Leistungssteigerungen zu erreichen. Mit dem Pentium D bietet Intel bereits die erste lauffähige Version mit 2 CPUs an. Aus dem gleichen Grund werden auch Cluster und Grids eingesetzt. Die Rechenleistung eines Einzelrechners ist für komplexe Probleme nicht mehr ausreichend. Wobei bei Grids nicht so sehr die Rechenleistung, sondern viel mehr die Verarbeitung großer Datenmengen im Vordergrund steht. Im Europäischen Kernforschungszentrum CERN beispielsweise fallen durch die Experimente der Teilchenphysiker gewaltige Mengen an Daten an, für die die aktuellen Rechen- und Speicherkapazitäten dieser Forschungseinrichtung in absehbarer Zeit nicht mehr ausreichen. Spätestens 2007 sind Experimente des Speicherrings im Large Hadron Collider (LHC) geplant, wodurch innerhalb kürzester Zeit Daten im Petabyte-Bereich (Millionen Gigabyte) erzeugt werden. Diese können unmöglich lokal verarbeitet werden [Ber- 2002]. Dies ist auch mit ein Grund, warum nicht einfach große Superrechner eingesetzt werden, da auch deren Speicherkapazitäten nicht ausreichen. Davon abgesehen ist die Grid- Lösung kostengünstiger, da die benötigte Rechenleistung bereits vorhanden ist. Aber auch Cluster-Computing ist um einiges billiger als Supercomputing. Vergleicht man beispielsweise die Kosten des Supercomputers Earth Simulator von NEC (ca. 350 Millionen US-Dollar und 3.Platz in den TOP500) mit den des Apple-Clusters X-Cluster von Verginia-Tech (ca. 10 Millionen US-Doller und 7.Platz in den TOP500), so ist dies schon sehr beeindruckend. 1.2 Was versteht man unter Grid Computing Ein Grid (= Gitter, Versorgungsnetz (Elektrizität), Gitternetz) ermöglicht den Zugang zu verschiedensten Ressourcen, wie Rechenleistung (CPU), Speicherplatz, Daten, Programme und Sensoren. Das Ziel besteht also darin, Rechenleistung und andere Ressourcen von vielen über Netzwerk(e) verteilte Maschinen zur Lösung komplexer Probleme zusammenzufassen. Rechner die in einem Grid eingebunden sind, können Teilaufgaben übernehmen, Berechnungen durchführen und ihre Ergebnisse dann an den Auftraggeber zurücksenden. Voraussetzung dafür ist aber, dass sich das Problem in Teilprobleme zerlegen lässt. 4

6 Heutige Grids können sogar in Konkurrenz mit aktuellen Supercomputern treten. Dieser Erfolg ist vor allem dem Internet zu verdanken, da es bereits eine Vielzahl von Rechnern gibt, die über das Internet miteinander verbunden sind. Dies macht man sich zu Nutze und verbindet sie logisch bzw. virtuell zu einem Rechner, sodass man das entstandene Gesamtsystem als virtuelle Rechenmaschine verstehen kann. Dabei werden nicht wie im Internet nur Informationen ausgetauscht, sondern wie oben schon erwähnt, auch andere Ressourcen. [HEI-2004], [GRO-2002], [STO-2003] In neueren Grids werden diese Einzelrechenleistungen nicht einfach kombiniert, sondern freie Ressourcen eines einzelnen über das Netz angeboten. Dies ist durchaus sinnvoll, da in den meisten Organisationen und Firmen die Rechner am Arbeitsplatz nur zu 5% ausgelastet sind. Grid Computing stellt also ein Framework zur Verfügung, um diese brachliegenden Ressourcen zu nutzen. Aber nicht nur die Rechenleistung wird oft nicht voll ausgenützt, sondern auch Speicherkapazitäten. Grid Computing, im Speziellen "data grids" (siehe ), können eingesetzt werden, um damit einen großen virtuellen Speicher zu realisieren. [BERS-2002] Rechen-Grids (verteiltes Supercomputing, computational grids) Dabei handelt es sich um den Zusammenschluss von mehreren high-performance Rechnern aber auch normalen Desktop-Maschinen, um rechenintensive Berechnungen durchführen zu können. Wie schon erwähnt arbeiten die meisten Server nur einen Bruchteil ihrer Zeit. Genau diese verfügbare Rechenzeit wird hier genutzt. Solche Grids können durchaus schneller sein, wie heutige Supercomputer, allerdings müssen ähnliche Einschränkungen, wie bei Parallelrechnern berücksichtigt werden.[bers-2002] Es muss beispielsweise gewährleistet sein, dass die Übertragung der zur Berechnung benötigten Daten nicht länger dauert, als hätte man die Berechnung ohne Übertragung durchgeführt. Genauso ist die Kommunikation untereinander zu berücksichtigen. 10 Mal mehr Rechner, bedeutet nicht automatisch eine 10 Mal schnellere Berechnung. Das heißt, der Zugriff auf gemeinsame Daten oder auch andere Abhängigkeiten der einzelnen Jobs untereinander, sowie die Teilbarkeit eines bestimmten Algorithmus auf mehrere Rechner müssen beachtet werden. Die Skalierbarkeit einer Anwendung ist also nicht beliebig groß. [SIE-2004] Beispiel: (siehe Kapitel 2.3.2) Daten-Grids (data grids) Neben der Rechenleistung werden oft Petabyte an Daten benötigt, wie schon in der Einleitung am Beispiel von CERN erwähnt. Um diese enormen Datenmengen handhaben und darauf 5

7 zugreifen zu können sind Daten Grids sehr gut geeignet. Jeder sich im Grid befindliche Benutzer bzw. Rechner kann nicht benötigten Speicherplatz anderen zur Verfügung stellen. Viele Grid Systeme verwenden dazu Netzwerkdateisysteme, wie Andrew File System (AFS), Network File System (NFS), Distributed File System (DFS) oder General Parallel File System (GPFS). Diese variieren in der Performanz, Zuverlässigkeit und Sicherheit. Dabei ist der Sicherheit besonderes Augenmerk zu schenken, da die auf einem fremden Rechner abgelegten Daten, nicht von jedem gelesen werden können sollten. Neben der Sicherheit ist auch die Datensicherung von großer Bedeutung. Es muss sichergestellt werden, dass bei Ausfall oder Entfernen eines Rechners aus dem Grid die Daten nicht verloren gehen. Die logische Folge ist die Daten mehrfach im Grid abzulegen. Dabei ergibt sich bei intelligenter Ablage im Daten Grid und intelligentem Grid Scheduling der positive Nebeneffekt, dass Daten weniger weit durchs Netz transportiert werden müssen. Das heißt, die Daten von der Quelle geholt werden, die am nächsten liegt (idealerweise die Maschine, welche direkt mit den Daten verbunden ist). [SIE-2004] Kollaboratives Grid Computing Durch das Grid besteht die Möglichkeit nicht nur Großrechner zu verbinden, sondern auch normale Desktop-Maschinen, welche zu 95% nicht ausgelastet werden.[sie-2004] Diese Desktop-Maschinen werden zu so genannten "Virtuellen Organisationen" zusammengefasst.[bry-2004] Eine virtuelle Organisation ist dabei ein Zusammenschluss von Personen, Unternehmen und realen Organisationen. Durch diese VOs soll es möglich werden Ressourcen wie Daten, Software, Sensoren, Rechner und Rechnernetzwerke zu teilen und Probleme kooperativ zu lösen. Jede VO, die an einem Grid beteiligt ist kann also Daten, Software und Rechenleistung anbieten und über die Nutzung fremder Resourcen mit anderen virtuellen Organisationen verhandeln. Wann, wo, wofür und unter welchen Bedingungen (z.b. zu welchen Kosten) Ressourcen zur Verfügung gestellt werden, entscheidet die VO selbst. Auf Grund der unterschiedlichen Bedingungen muss ein kollaboratives Grid unterschiedliche, lokale Sicherheitslösungen, Möglichkeit zum Ressourcenaufspüren, Scheduling (siehe späteres Kapitel), Dienstqualität, Abrechnung, etc. bieten. Durch virtuelle Organisationen ist also ein kontrollierter und sicherer Austausch der verschiedensten Ressourcen möglich. [BRY-2004] 1.3 Was versteht man unter Cluster Computing Im Gegensatz zum Grid ist ein Cluster ein parallel oder verteilt arbeitendes System, dass aus einer Sammlung von direkt miteinander verbundenen Einzelrechner besteht, welche wie ein 6

8 einziges System zusammenarbeiten. Diese Definition unterscheidet sich nicht wesentlich von der des Grids, allerdings handelt es sich dabei um Rechner, die innerhalb eines lokalen Hochgeschwindigkeitsnetzwerkes arbeiten. Jeder Rechner kann dabei ein Einzel- oder Mehrprozessorsystem sein. Aus Performanzgründen werden meistens nur identische Rechner mit gleichem Betriebssystem und Speicherressourcen verwendet, trotzdem wäre aber auch ein heterogener Cluster möglich. Dadurch, dass die Rechner und die Architektur des Clusters im Gegensatz zum Grid bekannt sind, können besser Optimierungen vorgenommen werden und die, an den Cluster gestellten Aufgaben, effizienter gelöst werden. Diese Variante des Verteilten Rechnens ist aber auch kostenintensiver, da die Rechner speziell für den Cluster angeschafft werden. Im Grid sind die benötigten Rechner bereits vorhanden, wodurch keine zusätzlichen Kosten anfallen. Ein weiterer Unterschied zum Grid besteht in der zentralen Verwaltung des Clusters im Gegensatz zur dezentralen Administration im Grid. Im Cluster wird eine genaue Aufgabe an alle im Cluster beteiligten Rechner vom Administrator verteilt. Die Aufgabe des Grids ist nicht genau definiert und bei jedem beteiligten Rechner eine andere. [STO-2003] Wie durch die Definition schon erkannt werden kann, wird beim Cluster mehr Wert auf Rechenleistung als auf Speicherkapazität gelegt. Grundsätzlich wird zwischen zwei Typen von Cluster unterschieden: Failover Cluster. Diese Variante besteht meist aus 2 4 identischen Rechnern, die sich gegenseitig ersetzen. Das heißt ein Rechner ist in Betrieb, während die anderen in einem Standby-Modus arbeiten. Fällt das Hauptsystem aus, kann ein anderes System sofort weiterarbeiten, und es wird eine längerer Ausfall verhindert. Bei Webservern zum Beispiel würde der Benutzer nichts von einem solchen Ausfall mitbekommen. Oft wird ein solches System gar nicht als Cluster angesehen. Load-Balancing Cluster. In diesem Fall handelt es sich um mehrerer Rechner, die über ein Netzwerk miteinander verbunden sind. Im Gegensatz zum Failover Cluster wird hier die benötigte Rechenleistung gleichmäßig auf alle verfügbaren Rechner aufgeteilt, d.h. alle Rechner sind in Betrieb. Cluster Kommunikation über LAN lokaler Standort Grid Kommunikation über WAN global verteilt 7

9 Existenz des Clusters wegen Berechnungen Existenz des Grids aus verschiedene Gründen Rechner existieren wegen Cluster Rechner existieren aus anderem Grund Verbund von mehreren Rechnern Verbund von mehreren Ressourcen zentraler Administrator jede Maschine eigener Administrator Cluster ist Hauptarbeit der Rechner Grid ist Nebenarbeit der Ressourcen Tabelle 1: Vergleich Cluster und Grid [HEI-2004] 2. Übersicht 2.1 Aufbau eines Cluster Abbildung 1: Aufbau eines Clusters [BUY-1999] Die wichtigsten Bestandteile eines Clusters sind folgende: Knoten Als Knoten werden die einzelnen Rechner bzw. Workstations mit Kommunikationssoftware und Netzwerkinterface bezeichnet. Die Anzahl der Knoten ist in der Regel beliebig, wobei jeder aus einem vollwertigen Ein- oder Mehrprozessorsystem bestehen kann.[bär-2004] Das heißt, jeder einzelne Rechner könnte auch alleine als Desktop-Maschine eingesetzt werden. Die Knoten können wiederum in 2 Kategorien eingeteilt werden Master-, Haupt- oder Frontknoten Dieser ist für die Kommunikation mit der Außenwelt und den externen Netzwerkverkehr verantwortlich. Zusätzlich werden Benutzerinteraktionen über die Konsole in diesem Knoten abgewickelt. 8

10 Slave-Knoten Alle anderen im Cluster befindlichen Knoten, die vorwiegend zur Bereitstellung von Rechenleistung dienen Cluster Middleware Die Cluster Middleware ist dafür zuständig alle beteiligten Rechner für den Benutzer wie ein einziges System aussehen zu lassen (single system image SSI). Zusätzlich wird die Arbeit auf alle Knoten im Cluster aufgeteilt und zwar so, das alle möglichst gleich viel zu tun haben (Load Balancing). Von der Middleware muss auch überwacht werden, ob noch alle Rechner im Cluster verfügbar sind. Ist dies nicht der Fall, so dürfen an ausgefallene Rechner keine Aufgaben mehr vergeben werden. Die Middleware ist also eine Schlüsselkomponente im Aufbau eines Clusters. [HAR-2002] Ein bekanntes Softwarepaket ist PVM (Parallel Virtual Maschine), welches von Vaidy Sundaram im Sommer 1989 entwickelt wurde und heute noch verwendet und weiterentwickelt wird. Durchaus als Nachfolger, kann MPI (Message Passing Interface), welches 1992 entwickelt wurde, bezeichnet werden. Mittlerweile liegt MPI in der Version 2 vor und es exstieren einige frei verfügbare Versionen für alle gängigen Plattformen[TAK- 2004]. Auch PVM ist bereits seit längerem auch für Windows verfügbar. PVM und MPI haben sich also durchgesetzt und hatten viele Cluster Projekte zur Folge. Bereits 1993 befand sich ein Cluster, gebaut in einem Projekt der UC Berkeley, unter den TOP500 schnellsten Rechnersystemen. Weiter Komponenten einer Middleware können sein (aus dem Projekt SCE (Scalable Cluster Environment) entnommen): SCMS (Scalable Cluster Management System): Das SCMS führt alle administrativen Aufgaben durch. CMA (Control and Monitoring Agent): Läuft auf allen Knoten und sendet Daten zum SMA (System Management Agent). SQMS (Batch Scheduling): Wird zur Verwaltung der Warteschlangen verwendet und vereinfacht somit das Task-Management. Es werden sowohl sequenzielle als auch parallele MPI- und PVM-Aufgaben, sowie Web-Portale unterstützt. Genauso entstand durch das bekannte Globus Projekt ein open-source Globus Toolkit, welches Anwender im Verteilen von Rechenleistung unterstützt, indem Werkzeuge, Bibliotheken zum Überwachen, Verwalten und Auffinden von Ressourcen mit zusätzlichem Sicherheits- und Dateimangement angeboten werden. [EME-2003] 9

11 2.1.3 Verbindungsnetzwerk Ist für den Austausch der Daten zwischen den Knoten verantwortlich. Dabei kann jedes beliebige Netzwerk verwendet werden. Es ist nicht einmal notwendig alle Knoten über dasselbe Netzwerk zu verbinden. Allerdings ist aus Performanzgründen anzuraten ein Highspeed-Netzwerk, wie Gigabit Ethernet oder Myrinet zu verwenden. Myrinet bietet eine 2 Gbps full duplex Verbindung mit sehr geringer Latenz (5µs, in eine Richtung), sehr hohem Durchsatz und einem programmierbaren on-board Prozessor, wodurch das System an Flexibilität gewinnt. Trotz dieser vielen Vorteile gegenüber Ethernet, bleiben doch zwei wesentliche Nachteile. Zum einen sind Myrinet-LAN Komponenten extrem teuer und zum anderen sind Switches mit mehr als 16 Ports nicht verfügbar, was eine Skalierung des Systems auf eine größere Menge von Rechner schwierig macht.[sch-2002] Das High Performance Parallele Interface (HiPPI) wurde entwickelt, um die Kommunikation zwischen Hochgeschwindigkeitsrechnern zu erleichtern. HiPPI stellt eine schnelle Punkt-zu- Punkt Verbindung mit Datenraten von bis zu 800 Mbit/s im Duplex-Betrieb und Simplex- Betrieb her. Im bidirektionalen Betrieb, also durch Herstellen einer zweiten Verbindung in die anderer Richtung, kann eine Geschwindigkeit von bis zu 1600 Mbit/s erreicht werden. Dabei können Entfernungen von bis zu 25m auf einem 50poligem Kabel überbrückt werden. Es werden TCP/IP-Datenpakete von bis zu 64KByte Länge bei einer Latenzzeit von 0,5 bis 2 Mikrosekunden unterstützt. Wie der Name schon erahnen lässt, erfolgt die Übertragung parallel mit 32 Bit in Bursts von 1 bis 256 Wörtern. Es gibt mehrere HiPPI Standards. Der HiPPI-PH (Physical) Standard beschreibt die elektrischen und mechanischen Eigenschaften bzw. das Signaling der physikalischen Schicht von HiPPI; HiPPI-FP (Framing Protocol) beschreibt das Format und den Inhalt (inklusive Header) von jedem Paket und HiPPI-SC (switch control) ermöglicht es mehrer Punkt-zu- Punkt Verbindungen aufzubauen. Obwohl also HiPPI-PH nur einfache Punkt-zu-Punkt Verbindungen unterstützt, um die notwendigen Datenraten erreichen zu können, wird dadurch ermöglicht Daten zwischen mehreren Computern auszutauschen. Dabei wird keine Switching- Hardware oder Technologie spezifiziert, sondern nur funktionale Mechanismen. HiPPI hat nun 2 wesentliche Nachteile. Zum einen die maximale Distanz zwischen 2 Knoten von 25m und zum anderen die beschränkte Anzahl an Verbindungen. Letzteres kann zwar mit HiPPI-SC etwas verbessert werden, trotzdem müssen sich alle verbundenen Computer innerhalb von 25m befinden. Um diesen Nachteil etwas zu mindern wurde Serial HiPPI eingeführt. Dabei wird an jedem Endpunkt ein normales Geräte verwendet, welches HiPPI- PH unterstützt. Vor jeder Übertragung werden die parallelen Signale serialisiert, seriell 10

12 übertragen und am Ende wieder zu HiPPI-PH Signalen umgewandelt. Wenn Hardware zur Umwandlung der Signale direkt an den Endgeräten der Verbindung vorhanden ist, können die 50poligen Kabel komplett wegfallen. [FER-2002], [BUY-1999] Betriebssystem und Hardware Auf jedem Knoten läuft eine Instanz des Betriebssystems. Aus Performancegründen ist es besser auf allen Knoten die gleiche Hardware und das gleiche Betriebsystem zu verwenden. Man spricht dabei von einem homogenen Cluster. Dies ist aber nicht unbedingt notwendig, auch unterschiedliche Hardware bzw. unterschiedliche Betriebssysteme sind möglich, was dann als heterogener Cluster bezeichnet wird. [BAU-2003] 2.2 Beispiel Cluster Myrinet Cluster Dieser Cluster wurde von der Johannes Kepler Universität Linz vom Institut für Graphische und Parallele Datenverarbeitung aufgebaut. Die einzelnen 8 Knoten bestehen aus ganz gewöhnlichen Suse Linux Desktop-Rechnern (AMD MP 1900+) mit 1GB Speicher im Master-Knoten und jeweils 512 MB in den Slave-Knoten. Als Verbindungsnetzwerk wird ein Myrinet Netzwerk (2 GBit) als Stern-Topologie einsetzt. Für die Middleware wird Globus der Version 2.2 mit Unterstützung für MPI verwendet.[vol-2004] Neben anderen Anwendungsgebieten an der TNF, wird dieser Cluster hauptsächlich für Arbeiten am GUP verwendet (z.b. Portierung und Erweiterung der am GUP entwickelten Software zur Fehlersuche, Einsatz für parallele Computergrafikalgorithmen und Virtual Reality Anwendungen). Neben diesen Arbeiten, dient der Cluster auch noch als Grid Knoten des Austrian Grid und des EU-weiten CrossGrid. Laut dem Benchmarksystem Linpack erreicht dieser Cluster eine Leistungen von Gflops [GUP-2005] X-Cluster Dieses System wurde von der Terascale Computing Facility des Verginia Polytechnic Institute in Phoenix, USA, entwickelt. Es handelt sich dabei um einen Zusammenschluss von 1100 gewöhnlichen Apple G5-Desktop-Rechnern die über ein Cisco Gigabit-Ethernet und Mellanox InfiniBand-Komponenten miteinander verbunden sind. Jeder der 1100 Knoten ist mit 2GHz getaktet, kann auf 4 GByte Hauptspeicher und eine 160-GByte-Serial-ATA- 11

13 Festplatte zugreifen. Insgesamt kann der Cluster somit auf 4,4 TByte RAM und 176 TByte externen Speicher zugreifen. Beeindruckend bei diesem Cluster ist, dass dieser bereits bei den ersten Test 10, 28 TFlops schaffte und sich damit an Platz 3 TOP500 schnellsten Rechner setzte. Mittlerweile ist er auf dem noch guten 7.Platz. Wie bereits in der Einleitung erwähnt, ist auch das Preis/Leistungs-Verhältnis bei weitem besser als bei Superrechnern, wie der Earth Simulator (Platz 3) oder ASCI Q (Platz 6). Mit etwas unter 10 Millionen US-Doller konnte dieser Cluster finanziert werden, wobei die Hälfte für Gebäude, Luftkühlsystem und unabhängige Stromversorgung verbraucht wurde. Der um einen Platz bessere ASIC Q kostete also gleich ca. 340 Millionen US-Doller mehr als der "X"-Cluster. Der Cluster soll Forschungsaktivitäten in den Bereichen Informatik und Ingenieurswesen unterstützen. In Zukunft sollen sowohl Produktions- als auch Forschungsjobs darauf laufen. Folgende Forschungsgebiete werden dabei von Virginia Tech gesehen: Nanoscale-Elektronik, Quantenchemie, Molekularstatistik, Akustik, Strömungsrechnungen, Elektromagnetic, Emulation von großen Netzen, etc.[har-2004] 2.3 Beispiel Grid Austrian Grid Das Austrian Grid ist ein Zusammenschluss von Rechnern an zur Zeit 3 Standorten (Linz, Salzburg und Innsbruck). Daran beteiligt sind das Institut für Graphische und Parallele Datenverarbeitung der Universität Linz, das Institut für Informatik der Universität Innsbruck, das Institut für Hochenergiephysik der Akademie der Wissenschaften und das Research Institute for Symbolic Computation (RISC) in Hagenberg. Durch dieses "Austrian Grid Projekt" können österreichische Wissenschafter auf eine Rechenleistung von 550 GFlops und auf eine Speicherkapazität von mehr als einem Terabyte nutzen. Dabei werden 6 SGI Systeme (Altix 350) mit insgesamt 96 Intel Itanium 2 Prozessoren mit 1,4 GHz / 4MB Cache verwendet. Zusätzlich kommen noch mehrere weniger große Server in Österreich hinzu, die zum großen Teil aus den oben bereits erwähnten Beteiligten stammen. Verwendung findet das Austrian Grid derzeit im medizinischen Bereich, in der Hochenergiephysik, in numerischen und astrophysikalischen Simulationen und in der Meteorologie. Beispielsweise können durch Anbindung an das Austrian Grid Optimierungen von Augenoperationen erreicht werden, indem jeder Arzt die aufwendige Berechnung und Visualisierung der Operation im Vorfeld einfach und schnell von seinem PC aus vornehmen 12

14 kann. In der Meteorologie kann durch das Grid eine höhere Vorhersagegenauikeit erreicht werden, da nun komplexere und damit mehr Rechenzeit benötigende Wettermodelle berechnet werden können. [WAN-2005] bedeutet Search for Extraterrestrial Intelligence at Home. Es ist also ein wissenschaftliches Experiment, das mit dem Internet verbunden Computer zur Suche nach Außerirdischer Intelligenz nutzt, indem ein frei erhältliches Programm Daten eines Radioteleskops (steht in Arecibo, Puerto Rico, das weltgrößte und empfindlichste Radioteleskop) herunterladet und analysiert. Im Rahmen des SETI Programms existieren zwar Großrechner, welche aber die empfangenen Signale nur oberflächlich analysieren können, da die vorhandene Rechenleistung nicht ausreichen würde. Abbildung 2: Benutzeroberfläche Die Signaldaten des Radioteleskops werden dabei in so genannte "work units" fixer Größe unterteilt und via Internet an ein Client-Programm gesendet. Dieses Programm berechnet ein Ergebnis (eine Menge von sogn. "candidate signals"), sendet dieses an den Server zurück und holt sich einen neue "work unit". Zwischen den Clients findet also keine Kommunikation statt. 13

15 Um zu verhindern, dass falsche Daten übermittelt werden (entweder durch fehlerhafte Clients, oder durch böswillige Benutzer), wird jede "work unit" mehrfach von verschiedenen Clients bearbeitet. Diese "work units" entstehen durch Unterteilung eines 2.5 MHz Signals in 256 Frequenzbänder mit einer Breite von 10 KHz. Jedes Frequenzband wird wiederum auf 107 sogn. "second segments" unterteilet, welche sich jeweils um 20 Sekunden überlappen. Damit wird sichergestellt, dass sich gesuchte Signale vollständig in einer "work unit" befinden. Die daraus entstehenden "work units" sind 350 KB groß und damit groß genug, um eine normalen PC einen Tag zu beschäftigen aber trotzdem klein genug, um schnell aus dem Internet geladen werden zu können. [SET-2005] 3. OS-Ebene An das Betriebssystem eines verteilten Rechnernetzes werden besondere Anforderungen gestellt. Das Betriebssystem muss parallele Aktivitäten Synchronisieren und Koordinieren, meist gibt es keinen gemeinsamen Speicher, Ausfallswahrscheinlichkeiten müssen minimiert werden und die unterschiedlichen Komponenten im Netz müssen heterogen miteinander verbunden werden. [SCHW-1993] 3.1 Funktionsweise eines Betriebssystem im Rechnernetz [UNB4-2005]: Folgende Hauptaufgaben muss ein Operationssystem bei Clustern und Grids lösen. In der Fachliteratur werden die Aufgaben in drei Hauptgruppen eingeteilt: In die Überwachung und Steuerung des Grids, in das Ressourcenmanagement und Scheduling und in die Parallelprogrammierung. Im Folgenden werden diese drei Hauptgruppen vorgestellt: Überwachung Die Überwachung des Clusters, oder auch Monitoring, trägt zu einem stabilen und leistungsfähigen Betrieb des Systems bei. Es ist eine der wesentlichen Aufgaben im Cluster Management. Generell versteht man unter Monitoring die Auswertung und Darstellung von verschiedensten Systemeigenschaften. Dabei kann es sich um beliebige Eigenschaften der Hard- oder Software handeln, die numerisch darstellbar sind. Häufig besitzen Monitoring- Werkzeuge auch einen Alarm-Mechansimus, der aktiv wird, sobald ein Parameter zuvor festgelegte Grenzen über- oder unterschreitet. 14

16 Sämtliche administrative Tätigkeiten, die an einem Cluster anfallen, darunter sowohl reine Installations- und Konfigurationsarbeit, als auch teilweise Wartungsarbeiten wie das Herunterfahren des Systems oder einzelner Knoten werden in dieser Arbeit unter dem Begriff Steuerung oder auch Administration zusammengefasst Steuerung Unter Steuerung in verteilten Systemen versteht man, wie man Lasten und Datenströme im Netzwerk verteilt. In der Fachliteratur wird das Load Balancing genannt. Daher ist es wichtig Strategien für dieses Problem zu finden. In der Praxis haben sich folgende durchgesetzt: Gewichtung Zufallsprinzip Round-Robin Hashing Antwortzeitmessung Netzwerkverkehr basierter Lastausgleich Ressourcenmanagement und Scheduling Software zum Zweck des Ressourcenmanagement und Job-Scheduling, auch bekannt unter Begriffen wie Job Management System oder Queueing Management System, war schon lange vor dem Aufkommen der ersten Cluster im Einsatz. Sie dient der Verwaltung und Zuteilung der Ressourcen wie sie in Hochleistungsrechenzentren vorhanden sind, unabhängig davon welcher Architektur die eingesetzten Rechner zuzuordnen sind. Es sei in diesem Zusammenhang noch auf einen oft benutzen, verwandten Fachausdruck hingewiesen: Cluster Management Software (CMS) ist ein Begriff, der oft im Kontext von Ressourcenmanagement-Software verwendet wird. Admininstrative Tätigkeiten, die nicht im Zusammenhang mit Ressourcenmanagement stehen, unterstützt CMS nur selten. Aufgrund der Verwandtheit der Begriffe Management und Administration haftet dem Begriff Cluster Management Software allerdings eine gewisse Mehrdeutigkeit an. Aus diesem Grund wird in dieser Arbeit die Bezeichnung Ressourcenmanagement vorgezogen Parallelrechnerprogrammierung Die Entwicklung paralleler Applikationen für Cluster erfordert passende Werkzeuge. Dazu zählen Compiler, Debugger und Anwendungen zur Leistungsanalyse der Programme, aber 15

17 auch integrierte Entwicklungsumgebungen. Ebenfalls in diese Kategorie einzuordnen ist Software wie MPI und PVM zur nachrichtenbasierten Programmierung von parallelen Programmen sowie Bibliotheken mit effizienten mathematischen Algorithmen. Eine sehr weit verbreitete Programmiersprache, nämlich MPI soll hier genauer vorgestellt werden. MPI steht für Message Passing Interface und wird bei parallelen Programmen mit dem gleichen Programm und verschiedenen Daten eingesetzt. MPI leitet dabei die Nachrichten zwischen den Programmen weiter. Um diese Weiterleitung zu ermöglichen müssen einige Mindestbestandteile angegeben werden: Welcher Prozess sendet die Nachricht? (... MPI_Rank) Welche(r) Prozess(e) empfängt/empfangen die Nachricht? (...MPI_Rank) Wo liegen die Daten auf dem sendenden Prozessor? (...Sende-Puffer) Welche Art/Typ von Nachricht wird verschickt? (...MPI-Typ) Wo sollen die Daten auf dem empfangenden Prozessor hin? (...Empfangs-Puffer) Ein möglicher MPI Befehl könnte wie folgt aussehen: MPI_Send(buffer, count, datatype, (rank ^ (1<<ebene)), ebene, comm); Weiters wird bei MPI Programmen meist der Prozessor mit der ID 0 als Host eingesetzt. Er übernimmt sozusagen die Steuerung der anderen Prozesse und sammelt die berechneten Daten. [KRA-2005] 3.2 Verteilte Betriebssysteme Arten von verteilten Betriebssystemen Ein verteiltes Betriebssystem im klassischen Sinn wird in der folgenden Abbildung 2 grafisch dargestellt. Es gibt ein Betriebssystem in einem verteilten System. Beispiele für eine Realisierung dieser Architektur sind Amoeba, Mach, OSF/I und DCE. Abbildung 3: verteiltes Betriebssystem [UNB4-2005] 16

18 Ein etwas anderes Konzept liegt bei einem Netzwerk Betriebssystem vor. Hier gibt es pro Recheneinheit jeweils in lokales Betriebssystem und darüber liegend ein Netzwerk Betriebssystem, das die Aktivitäten koordiniert. Beispiel für ein solches Betriebssystem sind Occam, Concurrrent Pascal, oder Erweiterungen wie Linda und ISIS für die Sprache C. Abbildung 4 : Netzwerk Betriebssystem [UNB4-2005] Übersicht über bereits existierende Betriebssysteme Die folgende Auflistung soll eine Übersicht über die bereits existierenden Betriebssysteme in Cluster und Grids darstellen. Allerdings kann es nur eine Auswahl sein, da es bereits sehr viele Betriebssysteme gibt. Allerdings ist jedes Betriebssystem für einen bestimmten Anwendungszweck optimiert worden und daher werden hier einige aufgelistet, die sehr unterschiedlichen Einsatzgebiete haben. 1. Plan 9 Plan 9 wurde seit 1985 in den AT&T Bell Laboratorien entwickelt hatte es die Stabilität erreicht, um in den Bell Labs Unix zu ersetzen. Mit Plan 9 sollten die Nachteile von Unix ausgemerzt und auf ein neues Maß an Sicherheit, Wirtschaftlichkeit und Effizienz setzen. Als Hardware Grundlage dienen normale Mikrocomputer. Programmiert wurde es in striktem ISO/ANSI C. Plan 9 wurde für die Intel 386 (oder höher), MIPS, Alpha und PowerPC Architektur portiert. Das Konzept sieht vor, ausgliederbare Funktionen auf die Computer im Netzwerk geschickt und effizient zu verteilen. Office-Aufgaben werden so auf einfachen Terminals gelöst, die Ressourcen dafür kommen von einem zentralen Server im Netzwerk. Die Unterteilung kann sogar soweit gehen, dass ein Server für das Datei- Sharing (FileStorage), einer für die Drucker, 17

19 einer für Applikationen und wiederum ein anderer für die Rechenleistung (Computing Power) delegiert wird. [UNB3-2005] 2. Unicore Unicore wird für Grid Systeme eingesetzt und wird derzeit beim größten europäischen Grid, dem Eurogrid eingesetzt. Unicore ist nach dem Schema eines Netzwerkbetriebsystems aufgebaut. Der Unicore Client ist auf einer Java Oberfläche aufgebaut, wobei Client nicht der richtige Ausdruck ist. Denn dieser Client stellt die Funktionalitäten für die Aufgaben des Netzwerk Betriebssystems dar. Dies sind die Aufgaben zu verteilen, zu gestalten und auf Vollständigkeit zu überwachen. Weiters werden Kontrollaufgaben gesteuert, um die laufenden und die zeitlich-gestaffelten Aufgaben zu überwachen. Funktionalität für den Erhalt der Ergebnisse und der Überwachung auf Vollständigkeit der Berechnung sind ebenfalls integriert. [UNB-2004] 3. Open Grid Service Architecture (Ogsa) IBM hat sich gemeinsam mit der Firma Globus Project angestrengt, um Rechner über das Internet zu einem Grid zu verbinden. Die Forscher kombinierten die im Globus-Projekt schon früher entwickelten Grid-Regeln mit den Vorteilen von Web-Services. Sie definieren ein Grid als einen "erweiterbaren Satz von Grid-Services, die sich in unterschiedlicher Weise kombinieren lassen". Das bedeutet, dass in Ogsa alle Ressourcen im Netz - Rechenpower, Speicherkapazität, Netze, Programme und Datenbanken - als Dienste aufgefasst werden. Ogsa beschreibt die Schnittstellen dieser Services und die Protokolle, über welche die Interfaces angesprochen werden. [KLI-2002] 4. Avaki EII Plus Dieses Produkt ist eine Plattformunabhängige Lösung und unterstützt die Grid Architekture. Avaka EII Plus ist wie Unicore gut für alle Aufgaben eines verteilten Betriebssystems eingerichtet und ist hervorragend Skalierbar. Weiters gibt es ein ausgeklügeltes Sicherheitssystem, um auch mit Firewalls und dergleichen gut umgehen zu können. Avaki ist vor allem dafür ausgerichtet um Berechnungen auf verteilten Daten durchzuführen. [UNB2-2005] 18

20 5. HP Open VMS Hewlett-Packard entwickelte für Cluster ein spezielles Betriebssystem: Open VMS. Open VMS ist allerdings nur für bestimmte Rechnertypen konzipiert und eher für kleiner Cluster ausgelegt. Es ist für Itanium basierte Server gedacht, und es ist mittels Developer Kit möglich eigene Applikationen zu schreiben. Es wird speziell Wert auf Ausfallsicherheit und kommt bereits beim Frankfurter Flughafen und bei der Deutschen Bahn zum Einsatz. Das heißt es wird beim Cluster nicht unbedingt die Rechenleistung erhöht, sondern die Ausfallswahrscheinlichkeit durch ein ausgeklügeltes Betriebssystem sehr nahe gegen null gedrückt. [HÖI-2004] 6. Rocks Cluster Distribution - Redhat Bei diesem Linux Produkt handelt es sich um ein sehr ausgereiftes und einfaches Betriebssystem um Cluster effektiv zu nutzen. Rocks ist selbstverständlich eine frei verfügbare Software, die auf allen gängigen Rechnertypen läuft, für die es jeweils verschiedene Distributionen gibt. Rocks übernimmt das Management des Clusters, die Verteilung von Software, die Steuerung von Batch-Aufträgen und viele andere Clusterbezogene Aufgaben. Rocks beinhaltet sogenannte Rolls aus Software-Paketen, die verschiedene Anwendungen abdecken: hpc für High-Performance-Computing, grid für den Globus Toolkit, sge für das Sun Grid Engine Job Queueing System und verschiedene andere. [ROC-2005] 3.4 Leistungsmerkmale von verteilten Betriebsystemen Kommunikationsaufwand Bei mehreren Rechnern ergibt sich immer ein Kommunikationsaufwand um die verschiedenen Einheiten im Netz zu steuern. Das Betriebssystem muss hinsichtlich Kommunikationsaufwand so sparsam wie möglich mit Nachrichten umgehen um auch bei extrem großen Netzelementen den zusätzlichen Traffic in einem erträglichen Bereich halten zu können. Der Kommunikationsaufwand berechnet sich bei N Byte Daten mit tstartup + N * twortübertragung. Je nach eingesetztem Algorithmus ist ein unterschiedlicher Kommnikationsaufwand erforderlich. Bei komplexeren Algorithmen muss allerdings die Kommunikationsstrategie sorgsam gewählt werden um nicht das gesamte Netz zu überlasten. 19

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Cloud-Computing Seminar Hochschule Mannheim WS0910 1/23 Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Fakultät für Informatik Hochschule

Mehr

Grid Computing. Einführung. Marc Lechtenfeld. Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen

Grid Computing. Einführung. Marc Lechtenfeld. Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen * Grid Computing Einführung Marc Lechtenfeld Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen Übersicht 1 Problematik 2 Systemanforderungen 3 Architektur 4 Implementation 5 Projekte

Mehr

Open Grid Services Architecture (OGSA)

Open Grid Services Architecture (OGSA) Open Grid Services Architecture (OGSA) IBM Red Paper; Fundamentals of Grid Computing, 2002 A d v an ced M id d lew are P ro f. D r. C h. R eich rc h @ fh-furtw angen.d e http://www.informatik.fh-furtwangen.de/~reich/advancedmiddlewareallg.ss05/index.html

Mehr

Anwendungen. Miroslawa Utzka Oktober 2004. Grid Computing

Anwendungen. Miroslawa Utzka Oktober 2004. Grid Computing Anwendungen Miroslawa Utzka Oktober 2004 Grid Computing Übersicht Einleitung Einsatzgebiete und Beispielprojekte Grid Anwendungen BOINC Projekte rund um BOINC Seti@home Ausblick Wenn Kosten eine Rolle

Mehr

1 Hochverfügbarkeit. 1.1 Einführung. 1.2 Network Load Balancing (NLB) Quelle: Microsoft. Hochverfügbarkeit

1 Hochverfügbarkeit. 1.1 Einführung. 1.2 Network Load Balancing (NLB) Quelle: Microsoft. Hochverfügbarkeit 1 Hochverfügbarkeit Lernziele: Network Load Balancing (NLB) Failover-Servercluster Verwalten der Failover Cluster Rolle Arbeiten mit virtuellen Maschinen Prüfungsanforderungen von Microsoft: Configure

Mehr

Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA)

Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA) Proseminar KVBK Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA) Arian Bär 12.07.2004 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) 2.1. Allgemeines 2.2. Architektur 3. Speicherarchitekturen

Mehr

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1 Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer

Mehr

PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD

PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD Inhaltsverzeichnis 1. ZUSAMMENSTELLUNG VON SERVERN...3 1.1. ANFORDERUNGSPROFIL...3 1.2. 1.3. SERVER MODELLE...3 TECHNISCHE

Mehr

Mindestanforderungen an Systemumgebung Für die Nutzung von excellenttango

Mindestanforderungen an Systemumgebung Für die Nutzung von excellenttango Die Hardware- und Softwareanforderungen sind als allgemeine Anforderungen zu betrachten. Zahlreiche Faktoren können sich auf diese Anforderungen auswirken und müssen daher beachtet werden: Die Anzahl und

Mehr

Red Hat Cluster Suite

Red Hat Cluster Suite Red Hat Cluster Suite Building high-available Applications Thomas Grazer Linuxtage 2008 Outline 1 Clusterarten 2 3 Architektur Konfiguration 4 Clusterarten Was ist eigentlich ein Cluster? Wozu braucht

Mehr

Dienstleistungen Abteilung Systemdienste

Dienstleistungen Abteilung Systemdienste Dienstleistungen Abteilung Systemdienste Betrieb zentraler Rechenanlagen Speicherdienste Systembetreuung im Auftrag (SLA) 2 HP Superdome Systeme Shared Memory Itanium2 (1.5 GHz) - 64 CPUs, 128 GB RAM -

Mehr

Systemanforderungen Verlage & Akzidenzdruck

Systemanforderungen Verlage & Akzidenzdruck OneVision Software AG Inhalt Asura 9.5, Asura Pro 9.5, Garda 5.0...2 PlugBALANCEin 6.5, PlugCROPin 6.5, PlugFITin 6.5, PlugRECOMPOSEin 6.5, PlugSPOTin 6.5,...2 PlugTEXTin 6.5, PlugINKSAVEin 6.5, PlugWEBin

Mehr

Citrix Provisioning Server Marcel Berquez. System Engineer

Citrix Provisioning Server Marcel Berquez. System Engineer Citrix Provisioning Server Marcel Berquez. System Engineer Agenda Was ist der Citrix Provisioning Server? Wie funktioniert der Citrix Provisioning Server? Was gehört zum Citrix Provisioning Server? Welche

Mehr

init.at informationstechnologie GmbH Tannhäuserplatz 2/5.OG 1150 Wien Austria

init.at informationstechnologie GmbH Tannhäuserplatz 2/5.OG 1150 Wien Austria init.at informationstechnologie GmbH Tannhäuserplatz 2/5.OG 1150 Wien Austria Seite 2 von 10 1 Inhaltsverzeichnis 2 Warum CORVUS by init.at... 3 3 Ihre Vorteile durch CORVUS... 3 4 CORVUS Features... 4

Mehr

Marketing Update. Enabler / ENABLER aqua / Maestro II

Marketing Update. Enabler / ENABLER aqua / Maestro II Marketing Update Enabler / ENABLER aqua / Maestro II Quartal 01/2013 1 Kommentar des Herausgebers Liebe Kunden und Partner, dieser Marketing Update gibt Ihnen einen kurzen Überblick über die aktuell verfügbaren

Mehr

BESCHAFFUNG UND LIZENZIERUNG MIT DEM VEREINFACHTEN ORACLE LIZENZMODELL

BESCHAFFUNG UND LIZENZIERUNG MIT DEM VEREINFACHTEN ORACLE LIZENZMODELL BESCHAFFUNG UND LIZENZIERUNG MIT DEM VEREINFACHTEN ORACLE LIZENZMODELL DIESER LEITFADEN IST FÜR FOLGENDE ORACLE SOFTWARE PROGRAMME GÜLTIG Oracle Database 11g Standard Edition One Die passende Datenbank-Lösung

Mehr

Ralf Enderle 19.11.07. Grid Computing. Seminar am Institut für verteilte Systeme im WS 07/08 - Forschungstrends im Bereich Verteilte Systeme -

Ralf Enderle 19.11.07. Grid Computing. Seminar am Institut für verteilte Systeme im WS 07/08 - Forschungstrends im Bereich Verteilte Systeme - Ralf Enderle 19.11.07 Grid Computing Seminar am Institut für verteilte Systeme im WS 07/08 - Forschungstrends im Bereich Verteilte Systeme - Seite 2 Inhalt Einleitung Konzeptueller Aufbau eines Grid Systems

Mehr

Session Storage im Zend Server Cluster Manager

Session Storage im Zend Server Cluster Manager Session Storage im Zend Server Cluster Manager Jan Burkl System Engineer, Zend Technologies Agenda Einführung in Zend Server und ZSCM Überblick über PHP Sessions Zend Session Clustering Session Hochverfügbarkeit

Mehr

TECHNISCHE PRODUKTINFORMATION CARUSO

TECHNISCHE PRODUKTINFORMATION CARUSO 1111 TECHNISCHE PRODUKTINFORMATION CARUSO TECHNISCHE PRODUKTINFORMATION Seite 0/7 Inhalt 1 Systemdefinition............2 2 Technische Details für den Betrieb von CARUSO......2 2.1 Webserver... 2 2.2 Java

Mehr

Hardware- und Software-Anforderungen IBeeS.ERP

Hardware- und Software-Anforderungen IBeeS.ERP Hardware- und Software-Anforderungen IBeeS.ERP IBeeS GmbH Stand 08.2015 www.ibees.de Seite 1 von 8 Inhalt 1 Hardware-Anforderungen für eine IBeeS.ERP - Applikation... 3 1.1 Server... 3 1.1.1 Allgemeines

Mehr

NOCTUA by init.at DAS FLEXIBLE MONITORING WEBFRONTEND

NOCTUA by init.at DAS FLEXIBLE MONITORING WEBFRONTEND NOCTUA by init.at DAS FLEXIBLE MONITORING WEBFRONTEND init.at informationstechnologie GmbH - Tannhäuserplatz 2 - A-1150 Wien - www.init.at Dieses Dokument und alle Teile von ihm bilden ein geistiges Eigentum

Mehr

High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO

High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO Anastasios Stomas SFI Technology Services AG 12. März 2003 anastasios.stomas@sfi.ch Seite 1 Hintergrund INHALT Cluster-

Mehr

Cluster Operating Systems

Cluster Operating Systems Lehrstuhl für Rechnerarchitektur, Professor Brüning Cluster Operating Systems Seminarvortrag im Wintersemester 2003/04 von Frank Ueltzhöffer 1. Einführung und Motivation 2. Charakterisierung 3. Herausforderungen

Mehr

Studienprojekt HP-MOM

Studienprojekt HP-MOM Institute of Parallel and Distributed Systems () Universitätsstraße 38 D-70569 Stuttgart Studienprojekt HP-MOM High Performance Message Oriented Middleware 23. Januar 2013 Kurt Rothermel, Frank Dürr, Patrick

Mehr

GRID-Computing vom lokalen zum globalen Ressourcenmanagement

GRID-Computing vom lokalen zum globalen Ressourcenmanagement GRID-Computing vom lokalen zum globalen Ressourcenmanagement Lokal job Master Ressourcen Management Queue1 Queue2... Node 1 Node 2.. Benutzer Cluster Ressourcenmanager: LSF (load sharing facility) OpenPBS

Mehr

Systemvoraussetzungen und Installation

Systemvoraussetzungen und Installation Systemvoraussetzungen und Installation Inhaltsverzeichnis Inhaltsverzeichnis... 2 1. Einleitung... 2 2. Einzelarbeitsplatzinstallation... 3 3. Referenz: Client/Server-Installation... 5 3.1. Variante A:

Mehr

GeoShop Netzwerkhandbuch

GeoShop Netzwerkhandbuch Technoparkstrasse 1 8005 Zürich Tel.: 044 / 350 10 10 Fax.: 044 / 350 10 19 GeoShop Netzwerkhandbuch Zusammenfassung Diese Dokumentation beschreibt die Einbindung des GeoShop in bestehende Netzwerkumgebungen.

Mehr

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2 Seminar Cloud Data Management WS09/10 Tabelle1 Tabelle2 1 Einführung DBMS in der Cloud Vergleich verschiedener DBMS Beispiele Microsoft Azure Amazon RDS Amazon EC2 Relational Databases AMIs Was gibt es

Mehr

C++ und mobile Plattformen

C++ und mobile Plattformen Dieser Artikel stammt aus dem Magazin von C++.de (http://magazin.c-plusplus.de) C++ und mobile Plattformen Mit diesem Artikel möchte ich euch einen kurzen Überblick über die verschiedenen Plattformen für

Mehr

Voraussetzungen für jeden verwalteten Rechner

Voraussetzungen für jeden verwalteten Rechner Kaseya 2 (v6.1) Systemvoraussetzungen Voraussetzungen für jeden verwalteten Rechner Kaseya Agent 333 MHz CPU oder höher 128 MB RAM 30 MB freier Festplattenspeicher Netzwerkkarte oder Modem Microsoft Windows

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

Excel beschleunigen mit dem mit Windows HPC Server 2008 R2

Excel beschleunigen mit dem mit Windows HPC Server 2008 R2 Excel beschleunigen mit dem mit Windows HPC Server 2008 R2 Steffen Krause Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/steffenk Haftungsausschluss Microsoft kann für die Richtigkeit

Mehr

Verkürzung von Entwurfszeiten

Verkürzung von Entwurfszeiten Verkürzung von Entwurfszeiten durch Matlab-basiertes HPC R. Fink, S. Pawletta Übersicht aktuelle Situation im ingenieurtechnischen Bereich Multi-SCEs als Konzept zur Verkürzung von Entwurfszeiten Realisierung

Mehr

Service Oriented Architecture für Grid-Computing

Service Oriented Architecture für Grid-Computing Service Oriented Architecture für Grid-Computing Service Oriented Architecture für Grid-Computing Berlin/Brandenburger Softwareforum 24.08.2005 Andreas Hoheisel (andreas.hoheisel@first.fraunhofer.de) Seite

Mehr

IT Storage Cluster Lösung

IT Storage Cluster Lösung @ EDV - Solution IT Storage Cluster Lösung Leistbar, Hochverfügbar, erprobtes System, Hersteller unabhängig @ EDV - Solution Kontakt Tel.: +43 (0)7612 / 62208-0 Fax: +43 (0)7612 / 62208-15 4810 Gmunden

Mehr

InfiniBand Low Level Protocol

InfiniBand Low Level Protocol InfiniBand Low Level Protocol Seminar Ausgewählte Themen in Hardwareentwurf und Optik HWS 08 17.12.2008 Andreas Walter Universität Mannheim Inhalt Motivation InfiniBand Basics Physical Layer IB Verbs IB

Mehr

Tier-Konzepte. Vertiefungsarbeit von Karin Schäuble

Tier-Konzepte. Vertiefungsarbeit von Karin Schäuble Vertiefungsarbeit von Karin Schäuble Gliederung 1. Einführung 3. Rahmenbedingungen in der heutigen Marktwirtschaft 3.1 Situation für Unternehmen 3.2 Situation für Applikationsentwickler 4. Lösungskonzepte

Mehr

Managed Cloud Services

Managed Cloud Services Managed Cloud Services Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Cloud Services

Mehr

RAC auf Sun Cluster 3.0

RAC auf Sun Cluster 3.0 RAC auf Sun Cluster 3.0 Schlüsselworte RAC, OPS, Sun Cluster, Performance, Availability Zusammenfassung Oracle hat mit dem Real Application Cluster (RAC) aus einer Hochverfügbarkeitslösung eine Höchstverfügbarkeitslösung

Mehr

White Paper. Embedded Treiberframework. Einführung

White Paper. Embedded Treiberframework. Einführung Embedded Treiberframework Einführung White Paper Dieses White Paper beschreibt die Architektur einer Laufzeitumgebung für Gerätetreiber im embedded Umfeld. Dieses Treiberframework ist dabei auf jede embedded

Mehr

Fachreferat. EFI -BIOS Nachfolger-

Fachreferat. EFI -BIOS Nachfolger- Fachreferat EFI -BIOS Nachfolger- Kurzerläuterung Übersicht EFI - Geschichte Aufbau und Vorteile Grafische Veranschaulichung Was passiert beim direkten einschalten eines Computers? Wie kommt die Intelligenz

Mehr

Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC. Alexander Scholz

Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC. Alexander Scholz Hochverfügbar und Skalierung mit und ohne RAC Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC Alexander Scholz Copyright its-people Alexander Scholz 1 Einleitung Hochverfügbarkeit

Mehr

Uberlegungen Einsatzgebiete Virtualisierungslosungen Fazit Hardwarevirtualisierung. Virtualisierung. Christian Voshage. 11.

Uberlegungen Einsatzgebiete Virtualisierungslosungen Fazit Hardwarevirtualisierung. Virtualisierung. Christian Voshage. 11. slosungen 11. Mai 2009 Inhaltsverzeichnis Uberlegungen slosungen 1 Uberlegungen Grunduberlegungen Vorteile Hardware-Emulation Nachteile 2 Servervirtualisierung Clientvirtualisierung 3 slosungen 4 5 Uberlegungen

Mehr

VMware. Rainer Sennwitz.

VMware. Rainer Sennwitz. <Rainer.Sennwitz@andariel.informatik.uni-erlangen.de> VMware Rainer Sennwitz Lehrstuhl für Informatik IV Friedrich-Alexander-Universität Erlangen-Nürnberg 4. Juli 2007 Rainer Sennwitz VMware Inhalt Inhalt

Mehr

ein verteiltes und repliziertes Dateisystem XtreemOS IP project is funded by the European Commission under contract IST-FP6-033576

ein verteiltes und repliziertes Dateisystem XtreemOS IP project is funded by the European Commission under contract IST-FP6-033576 ein verteiltes und repliziertes Dateisystem is funded by the European Commission XtreemOS IPunder project contract IST-FP6-033576 1 Das XtreemOS Projekt Europäisches Forschungsprojekt gefördert von der

Mehr

HOB Remote Desktop VPN

HOB Remote Desktop VPN HOB GmbH & Co. KG Schwadermühlstr. 3 90556 Cadolzburg Tel: 09103 / 715-0 Fax: 09103 / 715-271 E-Mail: support@hob.de Internet: www.hob.de HOB Remote Desktop VPN Sicherer Zugang mobiler Anwender und Geschäftspartner

Mehr

Einblick in die VMware Infrastruktur

Einblick in die VMware Infrastruktur Einblick in die VMware Infrastruktur Rainer Sennwitz Lehrstuhl für Informatik IV Friedrich-Alexander-Universität Erlangen-Nürnberg 4. Juli 2007 Rainer

Mehr

Grundlagen der Parallelisierung

Grundlagen der Parallelisierung Grundlagen der Parallelisierung Philipp Kegel, Sergei Gorlatch AG Parallele und Verteilte Systeme Institut für Informatik Westfälische Wilhelms-Universität Münster 3. Juli 2009 Inhaltsverzeichnis 1 Einführung

Mehr

Grundlagen des Grid Computing

Grundlagen des Grid Computing Grundlagen des Grid Computing Grid Middleware Toolkits: Unicore ICA Joh.. Kepler Universität t Linz Unicore Uniform Interface to Computing Resources Seit 1997 am Forschungszentrum Jülich entwickelt Grid

Mehr

Was ist PretonSaverTM... 3 PretonSaver's... 3 PretonCoordinator... 3 PretonControl... 4 PretonSaver Client... 4 PretonSaver TM Key Funktionen...

Was ist PretonSaverTM... 3 PretonSaver's... 3 PretonCoordinator... 3 PretonControl... 4 PretonSaver Client... 4 PretonSaver TM Key Funktionen... PRETON TECHNOLOGY Was ist PretonSaverTM... 3 PretonSaver's... 3 PretonCoordinator... 3 PretonControl... 4 PretonSaver Client... 4 PretonSaver TM Key Funktionen... 4 System Architekturen:... 5 Citrix and

Mehr

Server-Virtualisierung mit Citrix XenServer und iscsi

Server-Virtualisierung mit Citrix XenServer und iscsi Server-Virtualisierung mit Citrix XenServer und iscsi Universität Hamburg Fachbereich Mathematik IT-Gruppe 1. März 2011 / ix CeBIT Forum 2011 Gliederung 1 Server-Virtualisierung mit Citrix XenServer Citrix

Mehr

Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen

Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem hristian Terboven Rechen- und Kommunikationszentrum RWTH Aachen 1 Hochleistungsrechnen mit Windows enter omputing and ommunication

Mehr

Shibboleth Clustering und Loadbalancing

Shibboleth Clustering und Loadbalancing Shibboleth Clustering und Loadbalancing STEINBUCH CENTRE FOR COMPUTING - SCC KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Computercluster

Mehr

Check_MK. 11. Juni 2013

Check_MK. 11. Juni 2013 Check_MK 11. Juni 2013 Unsere Vision IT-Monitoring muss werden: 1. einfach 2. performant 2 / 25 Was macht IT-Monitoring? IT-Monitoring: Aktives Überwachen von Zuständen Verarbeiten von Fehlermeldungen

Mehr

1HXHLQVWLHJ± /LQX[ RGHU0LFURVRIW (LQH(QWZHGHU2GHU(QWVFKHLGXQJ"

1HXHLQVWLHJ± /LQX[ RGHU0LFURVRIW (LQH(QWZHGHU2GHU(QWVFKHLGXQJ /XW]%URFNPDQQ Interoperabilität von Linux und Windows 1HXHLQVWLHJ± /LQX[ RGHU0LFURVRIW (LQH(QWZHGHU2GHU(QWVFKHLGXQJ" \DVF 8QWHUQHKPHQVJUXSSH 6RIWZDUH(QJLQHHULQJ yasc Informatik GmbH Gründung 1996 Sitz

Mehr

Systemanforderungen Verlage & Akzidenzdruck

Systemanforderungen Verlage & Akzidenzdruck OneVision Software AG Inhalt Asura 9.6, Asura Pro 9.6, Garda 5.6...2 PlugBALANCEin 6.6, PlugCROPin 6.6, PlugFITin 6.6, PlugRECOMPOSEin 6.6, PlugSPOTin 6.6,...2 PlugTEXTin 6.6, PlugINKSAVEin 6.6, PlugWEBin

Mehr

SPARC LDom Performance optimieren

SPARC LDom Performance optimieren SPARC LDom Performance optimieren Marcel Hofstetter hofstetter@jomasoft.ch http://www.jomasoftmarcel.blogspot.ch Mitgründer, Geschäftsführer, Enterprise Consultant JomaSoft GmbH 1 Inhalt Wer ist JomaSoft?

Mehr

Instant-Grid ein Grid in 15 Minuten

Instant-Grid ein Grid in 15 Minuten Instant-Grid ein Grid in 15 Minuten Vortrag von Andreas Félix beim Practical Linux Forum des LinuxTag 2006 Gesellschaft für wissenschaftliche Datenverarbeitung Göttingen mbh Übersicht über den Vortrag

Mehr

Virtualisierung ein Überblick

Virtualisierung ein Überblick Virtualisierung ein Überblick Frank Hofmann Potsdam 18. April 2007 Frank Hofmann (Potsdam) Virtualisierung ein Überblick 18. April 2007 1 / 33 Gedanken zum Thema Fragen, die sich jeder stellt Virtualisierung

Mehr

Clustering und Failover mit Linux

Clustering und Failover mit Linux Grazer Linux-Tage 2003 25. April Markus Oswald Worum geht es? Load-Balanced Cluster Failover Cluster Shared Storage Computational Cluster Beowulf Distributed Computing Worum es nicht

Mehr

Projekt für Systemprogrammierung WS 06/07

Projekt für Systemprogrammierung WS 06/07 Dienstag 30.01.2007 Projekt für Systemprogrammierung WS 06/07 Von: Hassan Bellamin E-Mail: h_bellamin@web.de Gliederung: 1. Geschichte und Definition 2. Was ist Virtualisierung? 3. Welche Virtualisierungssoftware

Mehr

Cisco erweitert Gigabit-Ethernet-Portfolio

Cisco erweitert Gigabit-Ethernet-Portfolio Seite 1/6 Kleine und mittelständische Unternehmen Neue 1000BaseT-Produkte erleichtern die Migration zur Gigabit-Ethernet- Technologie WIEN. Cisco Systems stellt eine Lösung vor, die mittelständischen Unternehmen

Mehr

Einführung in die OPC-Technik

Einführung in die OPC-Technik Einführung in die OPC-Technik Was ist OPC? OPC, als Standartschnittstelle der Zukunft, steht für OLE for Process Control,und basiert auf dem Komponentenmodel der Firma Microsoft,dem Hersteller des Betriebssystems

Mehr

VMware als virtuelle Plattform

VMware als virtuelle Plattform VMware als virtuelle Plattform Andreas Heinemann aheine@gkec.informatik.tu-darmstadt.de Telekooperation Fachbereich Informatik Technische Universität Darmstadt Übersicht Einführung VMware / Produkte /

Mehr

Rechnernutzung in der Physik. Betriebssysteme

Rechnernutzung in der Physik. Betriebssysteme Rechnernutzung in der Physik Betriebssysteme 1 Betriebssysteme Anwendungsprogramme Betriebssystem Treiber BIOS Direkter Zugriff von Anwenderprogrammen auf Hardware nur in Ausnahmefällen sinnvoll / möglich:

Mehr

RAID. Name: Artur Neumann

RAID. Name: Artur Neumann Name: Inhaltsverzeichnis 1 Was ist RAID 3 1.1 RAID-Level... 3 2 Wozu RAID 3 3 Wie werden RAID Gruppen verwaltet 3 3.1 Software RAID... 3 3.2 Hardware RAID... 4 4 Die Verschiedenen RAID-Level 4 4.1 RAID

Mehr

Systemanforderungen Verlage & Akzidenzdruck

Systemanforderungen Verlage & Akzidenzdruck OneVision Software AG Inhalt Asura 10, Asura Pro 10, Garda 10...2 PlugBALANCEin 10, PlugCROPin 10, PlugFITin 10, PlugRECOMPOSEin10, PlugSPOTin 10,...2 PlugTEXTin 10, PlugINKSAVEin 10, PlugWEBin 10...2

Mehr

Oracle Database 10g Die RAC Evolution

Oracle Database 10g Die RAC Evolution Oracle Database 10g Die RAC Evolution Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 RAC-Revolution, RAC-Evolution & Computing Oracle8i mit OPS Oracle9i Rel.

Mehr

Managed VPSv3 Was ist neu?

Managed VPSv3 Was ist neu? Managed VPSv3 Was ist neu? Copyright 2006 VERIO Europe Seite 1 1 EINFÜHRUNG 3 1.1 Inhalt 3 2 WAS IST NEU? 4 2.1 Speicherplatz 4 2.2 Betriebssystem 4 2.3 Dateisystem 4 2.4 Wichtige Services 5 2.5 Programme

Mehr

Andrea Held. Virtualisierung im Oracle-Umfeld Virtualisierungslayer Voraussetzungen Schnittstellen Workload Management Grid Control

Andrea Held. Virtualisierung im Oracle-Umfeld Virtualisierungslayer Voraussetzungen Schnittstellen Workload Management Grid Control Andrea Held Virtualisierung im Oracle-Umfeld Virtualisierungslayer Voraussetzungen Schnittstellen Workload Management Grid Control 1 Einzelne Server ausgelegt auf Lastspitzen Niedrige durchschnittliche

Mehr

init.at informationstechnologie GmbH Tannhäuserplatz 2/5.OG 1150 Wien Austria

init.at informationstechnologie GmbH Tannhäuserplatz 2/5.OG 1150 Wien Austria init.at informationstechnologie GmbH Tannhäuserplatz 2/5.OG 1150 Wien Austria Seite 2 von 10 1 Inhaltsverzeichnis 2 Warum NOCTUA by init.at... 3 3 Ihre Vorteile mit NOCTUA:... 4 4 NOCTUA Features... 5

Mehr

Abschlussvortrag zur Bachelorarbeit. Konzeption und Aufbau eines Grid Testlabors am Beispiel des Globus Toolkit 4

Abschlussvortrag zur Bachelorarbeit. Konzeption und Aufbau eines Grid Testlabors am Beispiel des Globus Toolkit 4 Abschlussvortrag zur Bachelorarbeit Konzeption und Aufbau eines Grid Testlabors am Beispiel des Globus Toolkit 4 Halit Alagöz Fachgebiet Distributed Virtual Reality (DVR) Lehrgebiet Rechnernetze H. Alagöz

Mehr

Embedded Linux gnublin Board Programmieren Sonstiges. Embedded Linux am Beispiel des Gnublin-Boards

Embedded Linux gnublin Board Programmieren Sonstiges. Embedded Linux am Beispiel des Gnublin-Boards Embedded Linux am Beispiel des Gnublin-Boards Was ist Embedded Linux? Wikipedia Als Embedded Linux bezeichnet man ein eingebettetes System mit einem auf dem Linux-Kernel basierenden Betriebssystem. In

Mehr

Virtuelle Infrastrukturen mit Linux...

Virtuelle Infrastrukturen mit Linux... Virtuelle Infrastrukturen mit Linux...... und deren Integration in OSL SC Christian Schmidt Systemingenieur Virtualisierung "Aufteilung oder Zusammenfassung von Ressourcen" Unterschiedliche Bereiche für

Mehr

Version 2.0. Copyright 2013 DataCore Software Corp. All Rights Reserved.

Version 2.0. Copyright 2013 DataCore Software Corp. All Rights Reserved. Version 2.0 Copyright 2013 DataCore Software Corp. All Rights Reserved. VDI Virtual Desktop Infrastructure Die Desktop-Virtualisierung im Unternehmen ist die konsequente Weiterentwicklung der Server und

Mehr

internationalen Verbund

internationalen Verbund University of Applied Sciences 1 zur Optimierung der Wertschöpfungsketten Hochleistungsrechnen für Wissenschaft und Wirtschaft im internationalen Verbund Prof. Dr. rer. nat. Christian Schröder stellv.

Mehr

Algorithmus, siehe (1)

Algorithmus, siehe (1) Der Computer als elektronische Rechenmaschine entstand in den vierziger Jahren des 20. Jahrhunderts. Die Gedankenwelt der Informatik lässt sich aber bedeutend weiter zurückverfolgen. Mit diesem Kapitel

Mehr

Staff. Tim Conrad. Zeitplan. Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2013. Tim Conrad

Staff. Tim Conrad. Zeitplan. Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2013. Tim Conrad Blockseminar: Verteiltes Rechnen und Parallelprogrammierung Sommer Semester 2013 Tim Conrad Staff Tim Conrad AG Computational Proteomics email: conrad@math.fu-berlin.de Telefon: 838-51445 Büro: Raum 138,

Mehr

Software / Cross Media Design Parallels Server für Mac 3.0

Software / Cross Media Design Parallels Server für Mac 3.0 Software / Cross Media Design Parallels Server für Mac 3.0 Seite 1 / 6 Parallels Server für Mac 3.0 Neu Technische Daten und Beschreibung: Parallels Server-Lizenz zur Nutzung auf einem Server mit max.

Mehr

Systemanforderungen für MSI-Reifen Release 7

Systemanforderungen für MSI-Reifen Release 7 Systemvoraussetzung [Server] Microsoft Windows Server 2000/2003/2008* 32/64 Bit (*nicht Windows Web Server 2008) oder Microsoft Windows Small Business Server 2003/2008 Standard od. Premium (bis 75 User/Geräte)

Mehr

Betriebssysteme K_Kap11C: Diskquota, Raid

Betriebssysteme K_Kap11C: Diskquota, Raid Betriebssysteme K_Kap11C: Diskquota, Raid 1 Diskquota Mehrbenutzer-BS brauchen einen Mechanismus zur Einhaltung der Plattenkontingente (disk quotas) Quota-Tabelle enthält Kontingenteinträge aller Benutzer

Mehr

Grid Computing für datenintensive Anwendungen

Grid Computing für datenintensive Anwendungen Grid Computing für datenintensive Anwendungen Andreas Schreiber Deutsches Zentrum für Luft- und Raumfahrt e.v. (DLR) Köln-Porz Workshop "Wege aus dem Daten-Chaos" Köln-Porz, 16. Mai 2002 1 Überblick Einleitung

Mehr

SIMATIC S7-modular Embedded Controller

SIMATIC S7-modular Embedded Controller SIMATIC S7-modular Embedded Controller Leistungsfähiger Controller für Embedded Automation Jan Latzko Siemens AG Sector Industry IA AS FA PS4 Produktmanager SIMATIC S7-modular Embedded Controller Summar

Mehr

PIWIN II. Praktische Informatik für Wirtschaftsmathematiker, Ingenieure und Naturwissenschaftler II. Vorlesung 2 SWS SS 08

PIWIN II. Praktische Informatik für Wirtschaftsmathematiker, Ingenieure und Naturwissenschaftler II. Vorlesung 2 SWS SS 08 PIWIN II Kap. 3: Verteilte Systeme & Rechnernetze 1 PIWIN II Praktische Informatik für Wirtschaftsmathematiker, Ingenieure und Naturwissenschaftler II Vorlesung 2 SWS SS 08 Fakultät für Informatik Technische

Mehr

Hochleistungs-Disk-I/O

Hochleistungs-Disk-I/O Hochleistungs-Disk-I/O mit Lustre, dcache und AFS eine vergleichende Betrachtung Stephan Wiesand DESY DV 33. Treffen des ZKI AK Supercomputing Hamburg, 2010-03-04 Computing am DESY Standort Zeuthen Batch

Mehr

Vorlesung Methoden des Software Engineering. Martin Wirsing. Einheit B.2, 09.11.2006

Vorlesung Methoden des Software Engineering. Martin Wirsing. Einheit B.2, 09.11.2006 Block B (Software-Architektur): Systemarchitektur 09.11.2006 1 Vorlesung Methoden des Software Engineering Block B Software Architektur Systemarchitektur Martin Wirsing Einheit B.2, 09.11.2006 Block B

Mehr

Präsentation. homevisu Familie. Peter Beck. Juni 2011. www.p-b-e.de. 2011 p b e Peter Beck 1

Präsentation. homevisu Familie. Peter Beck. Juni 2011. www.p-b-e.de. 2011 p b e Peter Beck 1 Präsentation homevisu Familie Peter Beck Juni 2011 2011 p b e Peter Beck 1 Funktionensumfang Der Funktionsumfang das provisu Framework. Modular und durch Plug-In erweiterbar / anpassbar. Plug-In Schnittstelle

Mehr

Systemvoraussetzungen sou.matrixx-produkte

Systemvoraussetzungen sou.matrixx-produkte Systemvoraussetzungen sou.matrixx-produkte Vorwort Die in diesem Dokument enthaltenen Informationen können ohne Vorankündigung geändert werden und stellen keine Verpflichtung seitens des Verkäufers dar.

Mehr

Audiokommunikation im Computer. Andreas Jäger

Audiokommunikation im Computer. Andreas Jäger Audiokommunikation im Computer Wie kommunizieren die Teile einer DAW miteinander? Host Hardware Host Was gibt es in der Praxis zu beachten? Wo liegen Gefahren? Konkreter: Warum ist ASIO besser als MME?

Mehr

Grundlagen der Rechnerarchitektur

Grundlagen der Rechnerarchitektur Grundlagen der Rechnerarchitektur Einführung Unsere erste Amtshandlung: Wir schrauben einen Rechner auf Grundlagen der Rechnerarchitektur Einführung 2 Vorlesungsinhalte Binäre Arithmetik MIPS Assembler

Mehr

Systemanforderungen Verlage & Akzidenzdruck

Systemanforderungen Verlage & Akzidenzdruck OneVision Software AG Inhalt Asura 10.2, Asura Pro 10.2,Garda 10.2...2 PlugBALANCEin 10.2, PlugCROPin 10.2, PlugFITin 10.2, PlugRECOMPOSEin 10.2, PlugSPOTin 10.2,...2 PlugTEXTin 10.2, PlugINKSAVEin 10.2,

Mehr

Eine kurze Einführung Academy-Day 2012, Lingen 12/13.05.2012. Wolfram Seidel, CCIE #15942

Eine kurze Einführung Academy-Day 2012, Lingen 12/13.05.2012. Wolfram Seidel, CCIE #15942 Eine kurze Einführung Academy-Day 2012, Lingen 12/13.05.2012 Wolfram Seidel, CCIE #15942 DISCLAIMER - Warnhinweis Die Software GNS3 sowie die dazugehörigen Utilities sind zwar freie Software, zur Simulation

Mehr

Systemvoraussetzungen sou.matrixx-produkte

Systemvoraussetzungen sou.matrixx-produkte Systemvoraussetzungen sou.matrixx-produkte Vorwort Die in diesem Dokument enthaltenen Informationen können ohne Vorankündigung geändert werden und stellen keine Verpflichtung seitens des Verkäufers dar.

Mehr

Medienkompetenz, Grafik und DTP

Medienkompetenz, Grafik und DTP VO 340381 Informationsdesign; Medienkompetenz, Grafik und DTP Zentrum für Translationswissenschaft Letztes Mal sprachen wir über: Computer Aufbau Software Was ist Software? Software Soft im Sinne von weich/veränderbar

Mehr

Universal Mobile Gateway V4

Universal Mobile Gateway V4 PV-Electronic, Lyss Universal Mobile Gateway V4 Autor: P.Groner Inhaltsverzeichnis Allgemeine Informationen... 3 Copyrightvermerk... 3 Support Informationen... 3 Produkte Support... 3 Allgemein... 4 Definition

Mehr

BESCHAFFUNG UND LIZENZIERUNG

BESCHAFFUNG UND LIZENZIERUNG BESCHAFFUNG UND LIZENZIERUNG MIT DEM VEREINFACHTEN ORACLE LIZENZMODELL DIESER LEITFADEN IST FÜR FOLGENDE ORACLE SOFTWARE PROGRAMME GÜLTIG: ORACLE LIZENZIERUNG Fragen Sie uns! Oracle Database 12c Standard

Mehr

theguard! ApplicationManager Version 3.0

theguard! ApplicationManager Version 3.0 theguard! ApplicationManager Version 3.0 Stand 08/07/2007 Der ApplicationManager ist eine 3-schichtige Client-Server Applikation für die es System- Voraussetzungen in verschiedenen Ausprägungen gibt Das

Mehr

Virtuelle Server. JourFix für IT- Verantwortliche Jörn Baumgarten

Virtuelle Server. JourFix für IT- Verantwortliche Jörn Baumgarten Virtuelle Server JourFix für IT- Verantwortliche Jörn Baumgarten Einführung in die Virtualisierung Bereitstellung der Infrastruktur Erstellung virtueller Maschinen Größere Umgebungen Zusätzliche Features

Mehr

09.06.2003 André Maurer andre@maurer.name www.andre.maurer.name Wirtschaftsinformatik FH 3.5 Fachhochschule Solothurn, Olten

09.06.2003 André Maurer andre@maurer.name www.andre.maurer.name Wirtschaftsinformatik FH 3.5 Fachhochschule Solothurn, Olten Aktuelle Themen der Wirtschaftsinformatik Zusammenfassung 09.06.2003 André Maurer andre@maurer.name www.andre.maurer.name Wirtschaftsinformatik FH 3.5 Fachhochschule Solothurn, Olten 1 Serverseitige Webprogrammierung

Mehr

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at

Mehr