Bull is shaking up the world of Extreme Computing

Größe: px
Ab Seite anzeigen:

Download "Bull is shaking up the world of Extreme Computing"

Transkript

1 EDITORIAL Vom HPC zum Extreme Computing Wer heute an Supercomputer denkt erwartet Maxima, und das in allen wichtigen Disziplinen: Höchste Leistung bei geringstem Energieverbrauch, niedrigste Kosten bei optimalem Nutzen... Entwickler, Hersteller und Anwender streben längst nicht mehr ausschließlich nach High Performance. Sie wollen optimale Infrastrukturen für Supercomputing, sie brauchen Extreme Computing. Auf dem Weg vom HPC zum Extreme Computing stehen wir alle weiterhin vor sehr anspruchsvollen Herausforderungen. Wir von Bull wissen: Diese sind gemeinsam mit den Mitgliedern der HPC-Gemeinde viel besser und vor allem kundenorientierter zu lösen. In zahlreichen Kooperationen mit führenden Institutionen aus ganz Europa beschäftigen wir uns intensiv mit den neuen Entwicklungen, die der Markt, die Sie als Anwender wirklich wollen und brauchen. Ein gutes Beispiel hierfür ist myjam, eine Accounting und Monitoring Lösung für heterogene Clusterumgebungen, die überall in der HPC-Gemeinde großes Interesse findet. Dieses Produkt entstand aus einer Kooperation zwischen der Universität Düsseldorf und Bull. Es beweist eindrucksvoll, dass Wissenschaft und Wirtschaft gemeinsam die Lösungen entwickeln können, die der Markt verlangt. Auch die Politik hat längst erkannt, dass Kooperationen das Extreme Computing wirkungsvoll voranbringen. Mit der Einweihung der drei neuen Supercomputer in Jülich sah Forschungsministerin Schavan das deutsche partnerschaftliche Modell erfolgreich bestätigt. An diesem Erfolg hat Bull als Lösungslieferant für die JUROPA und HPC-FF Systeme maßgeblichen Anteil. Darauf sind wir stolz. Auke Kuiper Bull is shaking up the world of Extreme Computing Mit diesem wohl überlegten und dennoch ziemlich mysteriösen Slogan begann Bull Anfang Juni eine Kampagne zur Ankündigung des ersten Systems einer neuen Serie von Bull Systemen, die speziell für das High Performance Computing entwickelt wurden. Jetzt wurde das System offiziell enthüllt und ISC 09 Besucher in Hamburg können die neue Maschine auf dem Bull Stand genauer in Augenschein nehmen. bullx Blade System: höchste Performance in allen Disziplinen, für jedes Rechenzentrum Mit Erscheinen von bullx öffnen sich neue Wege für das Extreme Computing. Das neue bullx Blade System wurde extrem energieeffizient, ultra-kompakt und ultraleistungsfähig speziell für Hochleistungsanwendungen entwickelt. Und zwar vom größten Extreme Computing Expertenteam in Europa: mit mehr als 500 in das Projekt involvierten Spezialisten repräsentiert niemand mehr Wissen und Erfahrung. bullx basiert auf Industriestandards und bietet die besten Open Source Applikationen auf dem Markt. Das neue Bull System wurde insbesondere für die Einrichtung und den Betrieb extrem zuverlässiger und robuster Produktionsumgebungen maßgeschneidert. Mit bullx öffnet Bull die Welt des Extreme Computing für Anwender aus der Wirtschaft. Die technischen Charakteristika des bullx Blade Systems höchste Skalierbarkeit, geringster Platzbedarf, niedrigster Energieverbrauch und leistungsfähige, integrierte Akzeleratoren machen es zu einer idealen Plattform für nahezu jede Anforderung vom kleinen Designbüro bis hin zum in- Inhalt: Bull is shaking up the world of Extreme Computing Bull liefert neuen Supercomputer für die Universität zu Köln Bull fördert Kooperation auf internationaler Ebene Universität Düsseldorf und das Advanced Research Cardiff (ARCCA) planen Zusammenarbeit <myjam/>: einfacher, transparenter, produktiver Accounting und Monitoring in heterogenen Clusterumgebungen Bull Cluster für irische Forscher Bull und Microsoft bringen neue White Paper Version Einrichtung und Betrieb hybrider Cluster Planet 51 wird auf Bull Supercomputer gerendert Ein großer Tag für das Supercomputing in Europa Drei Supercomputer am Forschungszentrum Jülich eingeweiht Bull installiert GENCI s neuen Supercomputer Europas größtes und weltweit zweitgrößtes Hybridsystem in weniger als zwei Wochen Bull und CAPS beschleunigen Ihren Einstieg in das GPU Computing Druckbetankung für den Cluster Moderne Dateisysteme beschleunigen Datenzugriff in HPC-Umgebungen ternationalen Forschungszentrum, auf allen Forschungsgebieten und in sämtlichen Branchen Biowissenschaften, Geologie, Energie, Öl- oder Chemieindustrie, Klimaforschung, Raumfahrt, Automobilbranche und Finanzen

2 Das neue bullx Blade System liefert jede gewünschte Leistung, seien es einige Teraflops aber auch mehrere Petaflops. In jedem Falle garantiert bullx herausragende Leistungsmerkmale in allen wichtigen Disziplinen: integer und Floating Point Operationen, Geschwindigkeit und Speicherkapazität, interne Systemkommunikation, Input-Output Performance, einfache Bedienung und Betrieb, Total Cost of Ownership. Integrierter Ultracapacitor schützt vor Spannungsausfällen bis zu 250 ms. Beim Einsatz qualitativ hochwertiger Stromversorgungen ist es möglich auf eine UPS zu verzichten senkt den Stromverbrauch um bis zu 15% Management Features für effizientes Überwachen des Stromverbrauchs Das bullx B500 Compute Blade nutzt die neue Generation der Intel Xeon Prozessoren (Serie 5500, Codename Nehalem- EP) mit Intel QPI Technologie. Dieses Blade wurde von Beginn an für den Einsatz von Intel Xeon Prozessoren der neuen Generation entwickelt. bullx B500 Features: neueste DDR3 Speichertechnologie bringt große Bandbreite und schnelle Zugriffszeiten große Speicherkapazitäten (bis zu 96GB pro Blade mit 8GB DDR3 DIMMs) Unterstützung von SSD (Solid State Disk) mit hervorragender Zuverlässigkeit und exzellenter Performance das Compute Blade unterstützt aber ebenfalls Standard SATA Laufwerke oder den Diskless Mode Optimiertes Management der Kühlung, Störungen einzelner Lüfter haben keinen Einfluss auf andere Blades Das bullx Blade System beinhaltet 18 Compute Blades in einem 7U Chassis eine optimale Raumnutzung, die eine perfekte Balance zwischen Kompaktheit und Kommunikationsanforderungen sicherstellt. Das neue Design reduziert außerdem die Zahl der Kabel im Gehäuse drastisch. Bei der Entwicklung von bullx gab es keine Kompromisse: es enthält nur die besten auf dem Markt verfügbaren Komponenten! bullx Blade Chassis Rückansicht 2 Für HPC entwickelt Die für das Design des bullx verantwortlichen F&E Teams hatten von Beginn an die technischen Anforderungen optimierter HPC-Cluster mit berücksichtigt und das mit zwei Zielvorstellungen: Integration der effizientesten Technologien und ein Maximum an Kompaktheit. Deshalb bevorzugten sie eine Blade Architektur in einem 19" Chassis, das sowohl Bladeserver als auch Netzwerkmodule aufnehmen kann. Das bullx Bladechassis bietet folgende Features: High Density: Maximale Computing Power (36 CPUs auf 18 dual-socket Blades) auf kleiner Fläche (7U) Ein offenes, nicht blockierendes Interconnect mit modernen Technologien (Infini- Band QDR, 36 Ports) Drastische Reduzierung der Kabelanzahl durch Integration von Ethernet und Infini- Band Switches innerhalb des Chassis Native Integration von GPUs im bullx Blade System Um das Optimum aus GPU Akzeleratoren herauszuholen, sollten sie möglichst im Hostserver integriert werden. Darum kann das bullx Chassis 18 (single-width) Compute Blades (B500 Modell) aufnehmen, die jeweils mit zwei Intel Xeon Prozessoren bestückt sind, oder aber 9 (double-width) Accelerator Blades (B505 Modell), die neben den CPUs über zwei NVidia GPU Prozessoren verfügen. Es ist aber auch jede gemischte Kombination dieser zwei Bladetypen möglich. Diese Lösung bringt eine völlig neue Computingdichte, da 18 CPUs, 18 GPUs und das first-level Interconnect zwischen diesen Prozessoren in einem nur 7U großen Chassis untergebracht werden können. Um die Bandbreite zwischen den Akzeleratoren und deren Hostprozessoren zu erhöhen, hat sich Bull dafür entschieden, einen PCI-e 16x Port für jeden Akzelerator dediziert bereitzustellen. Außerdem hat das Accelerator Blade zwei InfiniBand QDR Konnektoren zum Netzwerk, damit jede Beschleunigerkarte Zugang zu QDR Bandbreite bekommt. Mehr und detaillierte technische Informationen über die brandneuen bullx B Systeme finden Sie auf Bull s neuer Extreme Computing Website unter

3 3 Bull liefert neuen Supercomputer für die Universität zu Köln Neueste bullx Systemarchitektur mit 100 Tflop/s Leistung Die Universität zu Köln hat sich bei der Beschaffung eines neuen Supercomputers für Bull entschieden. Bull konnte sich im Rahmen einer europaweiten Ausschreibung mit einem 100 Tflop/s starken System durchsetzen. Der neue Rechner basiert auf bullx Servern der neuesten Generation und wird am Regionalen Rechenzentrum der Universität (RRZK) installiert. In einer ersten Phase, die noch 2009 realisiert wird, kommt der Bull Cluster zunächst auf eine Leistung von 20 Tflop/s. Bis 2010 soll das Gesamtsystem mit weiteren INCA Servern ausgestattet werden und erreicht dann seine Spitzenleistung von 100 Tflop/s. Der neue Bull Supercomputer wird den Forschern der Universität wesentlich bessere Möglichkeiten zur Simulation komplexer Vorgänge sowie zur Verarbeitung sehr großer Datenmengen bieten. Universität zu Köln, Photo: Norbert Jährling Höchstleistung nicht nur für Computerwissenschaften Die Universität zu Köln gehört mit ihren Studierenden zu den renommiertesten Forschungseinrichtungen in Deutschland. Speziell im Bereich der Nutzung von Hochleistungsrechnern hat die Universität eine nunmehr fünfzigjährige Tradition. Professor Ulrich Lang, Direktor des RRZK und Inhaber eines Lehrstuhls für Informatik forscht zusammen mit seinem Team auf vielen innovativen Wissenschaftsgebieten, wie etwa Grid-Computing, Parallelisierung von Algorithmen, wissenschaftliche Visualisierung, parallele Visualisierung, Mensch- Computer-Interaktion oder Computerunterstütztes Kooperatives Arbeiten. Sein Lehrstuhl betreibt bereits seit 2004 ein Stereoprojektionssystem zur Visualisierung der Ergebnisse von Simulationen verschiedener Fachdisziplinen. Sowohl für Professor Lang, der die Neubeschaffung eines Hochleistungsrechners verantwortlich betreute, als auch für alle Anwender mehrerer Fakultäten der Universität, die für ihre Arbeit Hochleistungsrechner benötigen, stellt der neue Supercomputer einen großen Fortschritt dar. Bis 2010 steht ihnen, nachdem weitere Server mit zusätzlichen 80 Teraflop/s Leistung installiert wurden, immerhin das 20-fache der bisher vorhandenen Rechenleistung zur Verfügung. Die Leistung des Supercomputers entspricht der von mindestens 5000 PCs, so Professor Lang. Breites Anwendungsspektrum für den neuen Bull Supercomputer Der neue Supercomputer wird von Wissenschaftlern der Universität und des Landes für ein breites Spektrum von Aufgabenstellungen genutzt. Die Einsatzschwerpunkte des neuen Supercomputers werden in den Bereichen Chemie, Physik und Biowissenschaften liegen. Zahlreiche Simulationen werden dann dank der hohen Rechenleistung erstmals möglich, während bereits erprobte Simulationen deutlich realitätsnäher als bisher durchgeführt werden können. Ein wichtiges Einsatzgebiet wird beispielsweise die effizientere Forschung zahlreicher Wissenschaftler durch die Nutzung des von Professor Peter Nürnberg geleiteten CCG (Cologne Center for Genomics) sein. Das CCG unterstützt seit seiner Gründung 2005 zahlreiche Forschungsprojekte (z.b. die Erfassung genetischer Veränderungen bei komplexen Erkrankungen, wie Epilepsie oder Krebs), die für sehr viele Menschen von großem Nutzen sind. Für die hier notwendigen, aufwändigen Datenaufbereitungen und -auswertungen sowie umfangreichen Simulationen wurde deutlich mehr Rechenleistung notwendig. Andere Wissenschaftler werden mit Hilfe des neuen Supercomputers Eigenschaften von High-Tech-Materialien wie ultradichten magnetischen Speichermedien, neuartigen effizienten Katalysatoren und nanotechnologischen Komponenten untersuchen. Aber auch Meteorologen, Astrophysiker und Wirtschaftswissenschaftler werden bei der Durchführung ihrer Simulationen von der drastisch höheren Leistung des neuen Supercomputers profitieren. Next Generation DNA Sequenzanalyse (S. Motameny, Cologne Center for Genomics) Hohe Rechenleistung mit ultraschnellem Netzwerk In der ersten Phase (Sommer 2009) werden 215 bullx Rechenknoten geliefert, die mit jeweils zwei Intel Nehalem EP Quad-Core Prozessoren bestückt sind und für einen Prof. Dr. Ulrich Lang ist Direktor des Regionalen Rechenzentrums der Universität zu Köln (RRZK), einer der größten deutschen Universitäten. Gleichzeitig hat er die Leitung eines Lehrstuhls am Institut für Informatik. Vor seinem Wechsel nach Köln war er stellvertretender Direktor am Höchstleistungsrechenzentrum Stuttgart (HLRS), einem der drei nationalen Zentren angesiedelt an der Universität Stuttgart, an dem er auch die Abteilung Visualisierung leitete und die Projektaktivitäten im nationalen und europäischen Drittmittelbereich koordinierte. Unter seiner Leitung wurde COVISE, eine kooperative Visualisierungs- und Simulationsumgebung entwickelt, die das verteilte wissenschaftliche Arbeiten am Arbeitsplatzrechner wie auch in virtuellen Umgebungen unterstützt. Aus seiner Arbeitsgruppe ging eine Spin-off Firma hervor, die COVISE vermarktet. Er ist mit seinem Kölner Lehrstuhl an europäischen Projekten beteiligt. Im Projekt CoSpaces werden neue Ansätze des kooperativen Arbeitens für die Industriesektoren Automobil, Luftfahrt und Bau entwickelt und prototypisch mit der Industrie evaluiert. Im Projekt CitizenMedia werden neue Nutzungsformen mobiler Endgeräte wie Smartphones wie auch von Settop-Boxen entwickelt und deren Akzeptanz bei günstigeren Nutzungskonditionen untersucht. Ziel ist es frühzeitig Änderungen im Nutzungsverhalten der Bevölkerung zu erkennen. Prof. Lang ist als Konsortialführer des SuGI-Projektes (Sustainable Grid Infrastructures) Mitglied im Beirat der D-Grid-Initiative des BMBF. Er ist ebenfalls an der Leitung des MoSGrid- Projektes beteiligt, das die industrielle und akademische Community-Bildung im Bereich der molekularen Simulation anstrebt. Seine Forschungsinteressen liegen in den Bereichen Visualisierung, virtuelle und erweiterte Realität, Mensch-- Maschine Interaktion, Hochleistungsrechnen und Grid Computing und deren Kombination im Simulation Steering.

4 sehr schnellen Datenaustausch über ein modernes QDR-Infiniband Netzwerk vernetzt werden. Das ermöglicht die Bearbeitung großer paralleler Anwendungen (Distributed-Memory-Anwendungen, Shared-Memory-Anwendungen), aber auch serielle Rechnungen im Rahmen von Parameterstudien. Regulärer Betrieb noch vor Beginn des Wintersemesters 2009 Bereits vor Beginn des Wintersemesters sollen Benutzerschulungen durchgeführt und der reguläre Betrieb des Clusters aufgenommen werden. Damit die Möglichkeiten des neuen Supercomputers optimal zur Geltung kommen können, werden in einer weiteren Implementierungsphase Mitarbeiter des RRZK zusammen mit HPC-Anwendern vorhandene Codes anpassen. trieben. Auf einem Teil der Rechenknoten soll zusätzlich das Betriebssystem Microsoft Windows HPC Server angeboten werden. Als Accounting und Monitoring System wird unter anderem das von der Universität Düsseldorf in Kooperation mit Bull speziell für heterogene Clusterumgebungen entwickelte myjam zum Einsatz kommen. Michael Gerhards, Geschäftsführer der Bull GmbH in Köln, erklärt dazu: Wir freuen uns sehr, dass die Universität zu Köln sich für den führenden europäischen High-Performance-Computer-Hersteller Bull entschieden hat und ganz besonders, dass wir als Kölner Unternehmen Gelegenheit bekommen, die Universität zu Köln in den nächsten Jahren mit unserer Technologie und in enger Kooperation unterstützen zu können. (Leiter des Zentrums für Informations- und Medientechnologie sowie Lehrstuhlinhaber für IT-Management an der HHU) und Auke Kuiper (bei Bull als HPC Business Manager verantwortlich für die Kooperation mit der HHU) herzlich willkommen geheißen waren, informierte Hugh Beedie, ARCCA Chief Technology Officer, über die Struktur und die Kompetenzen der Universität Cardiff. An dieser traditionsreichen Universität, die seit mehr als zwei Jahrhunderten besteht, studieren derzeit etwa Studenten. In Cardiff seien zahlreiche wichtige Positionen mit Fachleuten aus der Wirtschaft besetzt, hebt Hugh Beedie deutlich hervor. Das sei leider nicht die Regel im heutigen universitären Leben. Einsatz verschiedener Klimamodelle (K. Born, Projekt Impetus, Institut für Geophysik und Meteorologie der Universität zu Köln) Im Sommer 2010 stehen 100 Tflop/s zur Verfügung Im Sommer 2010 wird Bull dann weitere 602 bullx Rechenknoten mit jeweils zwei dann verfügbaren Intel Westmere Prozessoren installieren. Für Shared-Memory-Anwendungen mit einem höheren Hauptspeicherbedarf werden zusätzlich vier große Bull Server mit jeweils 128 Cores installiert, von denen einer mit 1 Terabyte und drei mit 512 Gigabyte Hauptspeicher ausgebaut sein werden. Im Endausbau stehen innerhalb des gesamten Systems 26 Terabyte Hauptspeicher zur Verfügung. Zur Speicherung der anfallenden sehr großen Datenmengen werden 500 Terabyte Plattenspeicher bereitgestellt, die mit einer aggregierten Bandbreite von 10 Gigabyte/s ebenfalls über Infiniband angebunden sind. Als Paralleles Filesystem kommt Lustre zum Einsatz. Das Rechnersystem wird mit Red Hat Enterprise Linux be- Bull fördert Kooperation auf internationaler Ebene Universität Düsseldorf und das Advanced Research Cardiff (ARCCA) planen Zusammenarbeit In der Kooperation zwischen der Heinrich- Heine-Universität Düsseldorf (HHU) und Bull gibt es regelmäßig Meetings, in denen sich die HPC-Spezialisten der beiden Partner über den Stand der Entwicklungen informieren und abstimmen. Zu einem dieser Meetings hat Bull mit ARCCA einen seiner Referenzkunden aus Großbritannien eingeladen. Offenbar eine gute Idee. Am 6. und 7. Mai nutzte die hochkarätig besetzte Gruppe von HPC-Enthusiasten nicht nur die Gelegenheit Wissen und Erfahrungen auszutauschen, auch eine ganze Reihe von Kooperationsmöglichkeiten wurde eruiert. Die Vertreter aus den Reihen der HHU, ARCCA und Bull fanden schließlich zahlreiche Themen, die im Rahmen einer Kooperation gemeinsam weiter vorangetrieben werden sollen. Prof. Olbrich (links) und Michael Vetter (HHU) Der erste Tag des Arbeitsmeetings an der Universität Düsseldorf war prall gefüllt mit Vorträgen. Nachdem die Gäste aus Großbritannien von Gastgeber Professor Olbrich Hugh Beedie und Dr. Christine Kitchen (ARCCA) Cloud Computing in Cardiff Unter den Zuhörern fand eine ARCCA- Errungenschaft zum Stichwort Cloud Computing großes Interesse. Die Universität nutzt die auf dem Campus installierten Workstations zur Bewältigung eines Teils der anfallenden Rechenanforderungen durch High Throughput Computing mittels Condor. Dieser Condor Pool hat laut Hugh Beedie eine Reihe von Vorteilen: die Systeme, die ja nicht immer benutzt werden und sich oft im Leerlauf befinden, werden so deutlich besser genutzt. Außerdem senken diese meist unter Windows laufenden Rechner die Einstiegsschwelle für viele der Anwender, die sich sonst kaum mit HPC beschäftigen würden. Und nicht zuletzt falle das generell aufgrund schnellerer Amortisation und besserer Energiebilanz unter das große Thema Green IT, das natürlich wie überall innerhalb der HPC-Gemeinde auch in Cardiff von größter Bedeutung sei. <myjam/> in Düsseldorf Auf Seiten der deutschen Gastgeber ließ man es sich natürlich nicht nehmen über eigene Ergebnisse zu berichten. Dr. Stephan Raub, der sich an der HHU intensiv mit 4

5 heterogenen HPC-Systemarchitekturen auseinandersetzt, berichtete mit <myjam/> über ein wesentliches Ergebnis, das aus der Kooperation der HHU mit Bull entstand. <myjam/>, eine Applikation die das Accouting und Monitoring heterogener HPC- Infrastrukturen wirkungsvoll unterstützt, stieß bei den Abgesandten der Universität Cardiff auf großes Interesse. Dieses Produkt wird, das stand schnell fest, in der Kooperation zwischen der HHU und ARCCA sicher eine Rolle spielen. Dr. Stephan Raub (HHU) Eine eindrucksvolle Demonstration gab es im Bereich Simulation und 3D-Visualisierung zu bestaunen. Mitarbeiter von Professor Olbrich, Dr. Sebastian Manten und Michael Vetter, überzeugten in einer Live- Vorstellung vom Know-how, das sich die HHU mittlerweile auf diesem Gebiet erworben hat. Die Gäste aus Cardiff sahen unter anderem Strukturen von Konvektionszellen dreidimensional in den Raum wachsen. Im Anschluss ergab sich eine lebhafte Diskussion über Möglichkeiten und Anwendungsfälle für diese innovative Technologie. GPGPUs und andere Spezialprozessoren in Cardiff und Düsseldorf Eines der Hauptthemen des Meetings in Düsseldorf bildete der Einsatz von Spezialprozessoren und die daraus resultierenden Erfahrungen. So gab Dr. Christine Kitchen, Manager Advanced Research Computing in Cardiff, in ihrem Vortrag einen interessanten Überblick über die Erkenntnisse und Erfahrungen, die man in Cardiff mit Clearspeed-Beschleunigern sammeln konnte. Dr. Stephan Raub stellte hingegen die in Düsseldorf eingesetzten Nvidia-Tesla-Prozessoren und seine Entwicklungen im Bereich Scientific Simulation auf diesen GPGPUs in den Mittelpunkt seines Vortrages. Ergänzend informierte Bull-HPC-Consultant Pierre- Eric Bernard über die GPU-Roadmap von Bull und die hier künftig zu erwartenden Entwicklungen. Zahlreiche Themen für Kooperation Am zweiten Tag diskutierte man ausführlich über potenzielle Gebiete, auf denen die Teilnehmer von ARCCA, HHU und Bull gemeinsam kooperieren könnten. Schon am Vortag hatten sich mit <myjam/> und Condor zwei Themen als Favoriten erwiesen. So will man in Cardiff <myjam/> installieren. Außerdem wurde vereinbart, dass man helfen wolle, wichtige Informationen für die Weiterentwicklung von <myjam/> durch geeignete Umfragen in der HPC- Community in Großbritannien zu beschaffen. Dazu gehört insbesondere die Frage, welche Batchsysteme wo eingesetzt werden und welche Daemons für <myjam/> vordringlich entwickelt werden sollen. Im Gegenzug bekundete die HHU Interesse an einer Condor-Installation und überlegt bereits, <myjam/> für die Überwachung und Steuerung von Condor zu adaptieren. Insgesamt erstellte man eine sehr umfangreiche Liste von möglichen Kooperationsthemen, über die sicher noch zu berichten sein wird. Wenn auch heute, nach diesem ersten Kennenlernen, noch nicht abzusehen ist, welche Ergebnisse künftig gemeinsam erzielt werden, eines steht schon fest: Hier haben sich Gleichgesinnte gefunden, die in kurzer Zeit eine freundschaftliche Basis entwickelt haben. <myjam/>: einfacher, transparenter, produktiver Accounting und Monitoring in heterogenen Clusterumgebungen Im Rahmen einer Kooperation zwischen der Heinrich-Heine-Universität Düsseldorf (HHU) und Bull werden seit zwei Jahren Anforderungen an das homogene Management von heterogenen HPC Clusterkonfigurationen analysiert und neue Lösungsansätze entwickelt. Ein Ziel dieses Projektes bestand in einer prototypischen Implementierung eines netzverteilten, modularen, portablen und über eine Weboberfläche interaktiv nutzbaren Systems für das Accounting und Monitoring auf Rechenclustern mit integriertem Projekt- und Anwendungsmanagement. (Zitat aus einer Publikation der HHU, siehe Fußnote*.) Aus dieser sehr akademisch klingenden Projektbeschreibung entstand mittlerweile mit <myjam/> ( Job Accounting und Monitoring, www. myjam.uni-duesseldorf.de) ein intuitiv und einfach bedienbares Werkzeug, das bald Produktreife erreichen wird. Die Software unterstützt bereits den batchbasierten Betrieb des heterogenen Linux-Rechenclusters der HHU und besitzt eine Anbindung an das Batchsystem PBS Pro. <myjam/> soll in absehbarer Zeit als plattformübergreifende Open-Source-Software anderen Institutionen aus Forschung und Lehre sowie der Wirtschaft zur Verfügung gestellt werden. Eine Demoversion können interessierte Anwender von der HHU beziehen. <myjam/> Job Accounting Aus mypbs Manchmal vergeht die Zeit sehr schnell. Vor einem Jahr hatten wir Dr. Stephan Raub von der Universität Düsseldorf interviewt und nach dem Status dieses interessanten Entwicklungsprojektes befragt. Wir sind dabei, ein OpenSource-Projekt wieder aufleben zu lassen, in dem wir es modernisieren und mit Up-to-date-Funktionen ausstatten. Das Projekt heißt mypbs, sagte er uns damals. Heute, 12 Monate später, hat das Projekt mit <myjam/> nicht nur einen völlig neuen Namen bekommen, die beiden Kooperationspartner können greifbare Ergebnisse vorweisen. Und die können sich sehen lassen. <myjam/> ist über die Betatestphase hinaus zu einer Anwendung gereift, für die sich längst auch andere Institutionen interessieren. So etwa die Universität Köln, die <myjam/> auf jeden Fall installieren wird. Außerdem haben sowohl das Forschungszentrum in Jülich als auch die Universität Cardiff bereits einen Einsatz von <myjam/> geplant. wurde <myjam/>. Bei der Entwicklung von <myjam/> verfolgte Dr. Stephan Raub also zunächst den Plan, das Open-Source-Projekt mypbs, das allerdings seit 2006 nicht mehr weiterentwickelt wurde, zur Produktreife zu bringen. Als er und seine Mitarbeiter jedoch bemerkten, dass wegen zahlreicher grundlegender Unzulänglichkeiten eine komplette Neuentwicklung sinnvoller wäre, gab man diesen Plan auf. Das heutige <myjam/> hat mit seinem Urvater mypbs mit Ausnahme der Namensähnlichkeit nahezu keine Gemeinsamkeiten mehr. Beibehalten wurden grundsätzliche, von Dr. Stephan Raub als sinnvoll erachtete Konzepte. Dazu zählen z.b. die Verwendung von MySQL als Datenbankserver, der Einsatz eines 5

6 Webbasierten Frontends sowie bestimmte Terminologien, wie etwa die Bezeichnung Service Unit (SU, was einer Stunde Rechenzeit auf einem Core entspricht). Im Vergleich zu mypbs sollten etliche Verbesserungen eingeführt werden. Klar voneinander getrennte Programmier-Schichten sorgen bei <myjam/> für eine leichtere Wartung des Codes, ein interaktives Web- Frontend für intuitive Bedienung. Auf den Einsatz proprietärer Bibliotheken hat man bei <myjam/> verzichtet und setzte dafür auf moderne Web-Konzepte (AJAX) und auf die Einhaltung von W3C-Standards. <myjam/> Monitoring <myjam/> erstellt Rechnungen Betreiber von HPC Infrastrukturen stehen immer unter Kostendruck und wollen deshalb ihre teuer bezahlten Rechenzeiten, wann immer möglich, den Anwendern in Rechnung stellen. Eine der zahlreichen Funktionalitäten von <myjam/> wollen wir hier deshalb besonders hervorheben, das Billing. Dafür wird in <myjam/> mit der ServiceUnit (SU) eine virtuelle Währung eingesetzt, wobei eine SU einer CPU(Core)- Stunde entspricht. SUs können dann über frei definierbare Kostenmodelle auf Wunsch in Euro und Cent umgerechnet werden. Dabei lassen sich zudem verschiedene Tarife, wie etwa Normal-Tarif oder Overrun-Tarif, festlegen. Ist ein Projekt kostenpflichtig, können Credit oder PrePaid-Kostenmodelle zum Einsatz kommen. So werden beim Credit-Kostenmodell den Usern eines Projektes die von ihnen verbrauchten SUs nach Beendigung des Projektes oder in regelmäßigen Teilmargen in Rechnung gestellt. Bei PrePaid-Projekten hingegen dürfen nur die SUs verbraucht werden, die zuvor bezahlt worden sind. Natürlich ist es aber auch möglich Überziehungen zuzulassen und sich diese dann beispielsweise im Overrun- Tarif teurer bezahlen zu lassen. * S. Raub, D.-B. Schramm, S. Olbrich, <myjam/> Accounting und Monitoring auf Rechenclustern. In: P. Müller, B. Neumair, G. D. Rodosek (editors), Lecture Notes in Informatics Proceedings, Band P-149 of Series of the GI, S , Bull Cluster für irische Forscher Die National University of Ireland in Galway (NUIG) gehört zu Irlands führenden Universitäten. Sie hat heute mehr als Studenten und besitzt einen sehr guten Ruf in der Lehre und Forschung. Die NUIG besteht aus fünf Colleges: College of Arts, Social Sciences, & Celtic Studies; College of Medicine, Nursing, & Health Sciences; College of Business, Public Policy, & Law; College of Engineering & Informatics und dem College of Science. Modularität sorgt für Flexibilität und Zukunftssicherheit <myjam/> beruht auf drei Hauptkomponenten (siehe Abbildung 1): 1. Die <myjam/>-datenbank, einer MySQL- Datenbank. Hier werden alle Informationen über Projekte, User, Jobs und Anwendungen gespeichert. 2. Der <myjam/>-daemon, ein *nix-daemon. Er läuft auf jedem Batchserverknoten und sammelt vom Batchsystem oder Betriebssystem Informationen über laufende und wartende Jobs. Diese Daten werden in der Datenbank gespeichert. Darüber hinaus werden die aktiven Anwendungen klassifiziert. 3. Das <myjam/>-web-frontend, eine hochinteraktive Web-Applikation. Über das Frontend können alle gesammelten Informationen nach verschiedensten Kriterien analysiert und visualisiert werden. Außerdem lassen sich User und Projekte verwalten. Alle drei Komponenten von <myjam/> laufen unabhängig voneinander, können also auch auf verschiedenen Servern eingesetzt werden. Um mehrere Batchsysteme überwachen zu können, lassen sich grundsätzlich mehrere Daemons auf den Servern einsetzen. Besonders wichtig ist jedoch die Tatsache, dass die Modularität von <myjam/> die Entwicklung weiterer Daemons für andere Batchsysteme erleichtert. Die Datenbank und das Web-Frontend können dabei unverändert gelassen werden. Jetzt <myjam/> Demoversion bestellen Mit <<myjam/>/> steht den Betreibern von HPC Infrastrukturen ein leicht und intuitiv bedienbares Frontend für Accounting und Monitoring zur Verfügung. Es wurde auf der Basis bereits am Markt etablierter Batchsysteme entwickelt und in der heterogenen Cluster-Umgebung der HHU erprobt. Dank des klaren Systemdesigns und definierter Schnittstellen kann <myjam/> auf andere oder zukünftige Batchsysteme sehr leicht angepasst werden. Mit seinen Accounting- und Monitoring-Fähigkeiten unterstützt <myjam/> nicht nur Systemadministratoren und Supportmitarbeiter, auch im Berichtswesen oder in der Rechnungsstellung ist <myjam/> ein wertvolles Werkzeug. In Planung sind derzeit Erweiterungen wie etwa eine Node-basierte Sicht sowie ein Hochverfügbarkeitsmodul. Abgeschlossen sind die Arbeiten an einer Demoversion, die, so Dr. Stephan Raub, letzte Zweifel an der Qualität und Zuverlässigkeit sicher ausräumen werden. Die <myjam/> Demoversion simuliert Accounting und Monitoring im Betrieb eines (mit einem mathematischen Modell simulierten) virtuellen Clusters und macht so die umgangreiche Funktionalität in Echtzeit nachvollziehbar. Interessenten sind hochwillkommen und wenden sich bitte direkt an Herrn Dr. Stephan Raub an der Universität Düsseldorf: KONTAKTDATEN Dr. Stephan Raub Die NUIG entschied sich vor Kurzem für ein neues HPC System von Bull. Der Bull Supercomputer soll eine breite Palette von Applikationen verschiedener Fachbereiche mit unterschiedlichsten Anforderungen unterstützen, von denen manche nur einige Stunden, andere jedoch einige Tage Rechenzeit beanspruchen. Die NUIG benötigte ein System mit üppig ausgebauten Rechenknoten, das heißt mit einem Speicherausbau von mindestens vier GB pro Core. Man wollte an der NUIG außerdem das GPU Computing Know-how weiter entwickeln. Bull schlug einen heterogenen Cluster mit 64 Bull R422 E2 Compute Nodes und jeweils sechs GB Speicher pro Core vor, der außerdem über zwei NVIDIA Tesla S1070 GPU Nodes verfügt. Das System findet in zwei Schränken Platz, die mit Bull Cool Cabinet Türen ausgestattet sind. Durch die in die Racktüren integrierte Kühlung wird eine effiziente Klimatisierung direkt an den Racks sichergestellt. Das von Bull komplett integrierte System beinhaltet ein InfiniBand Interconnect Netzwerk, ein paralleles Lustre Filesystem und Bull s umfassende HPC Softwaresuite mit Softwareentwicklungstools und Cluster Management Tools. Das neue System soll den Forschern der Galway University noch im Juni 2009 zur Verfügung stehen und wird zusätzlich landesweit über ICHEC (Irish Centre for High- End Computing) zugänglich sein. 6

7 Bull und Microsoft bringen neue White Paper Version Einrichtung und Betrieb hybrider Cluster Das von Bull und Microsoft HPC Experten verfasste White Paper A Hybrid OS Cluster Solution Dual-Boot and Virtualization with Windows HPC Server 2008 and Linux Bull Advanced Server for Xeon wurde kürzlich erweitert. Es behandelt nun auch die Implementierung des Altair PBS Professional Meta-Scheduler. Das Papier behandelt Hybrid Operating System Cluster (HOSC), also HPC Cluster auf dem mehrere Betriebssysteme simultan laufen und beschäftigt sich insbesondere mit zwei simultan laufenden Systemen: Bull Advanced Server for Xeon und Microsoft Windows HPC Server Die Informationen des White Paper können jedoch auch auf den Betrieb von drei oder mehr simultan eingesetzten Systemen (möglicherweise andere Distributionen) mit leichten Änderungen angewandt werden. Anwender bekommen neben generellen Konzepten auch detaillierte Setup Informationen vorgestellt. Zuerst werden die für die Entwicklung eines HOSC notwendigen Technologien (dual-boot, Virtualisierung, PXE, Resource Manager und Job Scheduler) beschrieben. Danach werden verschiedene Ansätze von HOSC Architekturen analysiert. Der Anwender bekommt technische Empfehlungen, speziell in Hinsicht auf Computing Performance und Management Flexibilität. Diese Empfehlungen werden schließlich umgesetzt, um die jeweils optimale Ausstattung für das Design eines HOSC Prototypen zu bestimmen. Das Installationssetup des Prototypen und die einzelnen Konfigurationsschritte werden erklärt. Ebenso die Einrichtung eines auf Altair PBS Professional basierenden Meta-Schedulers. Schließlich werden grundlegende HOSC Administratoroperationen aufgelistet und Vorschläge für weitere Vorgehensweisen unterbreitet. Sie bekommen das Dokument auf der Bull Website als Download unter: 147 Oder auf dem Bull Stand (530) auf der ISC 09 in Hamburg. Ein grosser Tag für das Supercomputing in Europa Drei Supercomputer am Forschungszentrum Jülich eingeweiht Am 26. Mai wurden vom Gauss Zentrum für Supercomputing in Jülich gleich drei neue Supercomputer eingeweiht. Neben JUGENE, dem mit einem Petaflop/s derzeit schnellsten Supercomputer in Europa, nahmen die Systeme JUROPA und HPC-FF den Betrieb auf. Der JUROPA Superrechner verfügt über 207 Teraflop/s Leistung und basiert auf einer Cluster Konfiguration aus Bull NovaScale Servern und Sun Blade Servern. Das HPC-FF System basiert zur Gänze auf Bull NovaScale Servern der neuesten Generation und bringt eine Spitzenleistung von 101 Teraflop/s. Neben Vertretern der beteiligten Hersteller und vielen Mitgliedern der HPC-Szene nahmen auch Dr. Annette Schavan, Bundesministerin für Bildung und Forschung, sowie der nordrhein-westfälische Ministerpräsident Dr. Jürgen Rüttgers an der Veranstaltung teil. Ein guter Tag für Europa Ministerpräsident Rüttgers unterstrich in seinem Grußwort die strategische Bedeutung des Supercomputings und sagte wir wollen Nordrhein-Westfalen zum Innovationsland Nummer eins machen. Bundesministerin Schavan sieht mit der Beschaffung der Supercomputer den Führungsanspruch Deutschlands in diesem für die Gesamtwirtschaft so wichtigen Technologiesektor belegt. Das ist ein guter Tag für das deutsche Gauss-Zentrum und auch ein guter Tag für Europa, erklärte die Ministerin. Dem stimmten die Leiter der drei nationalen Hochleistungsrechenzentren in Stuttgart, Garching und Jülich, die zusammen das Gauss Zentrum für Supercomputing bilden, in eigenen Grußworten zu. Wir sichern für den Standort Europa, so Professor Dr. Achim Bachem, Vorstandvorsitzender des Forschungszentrums Jülich, einen unabhängigen Zugang zu einer entscheidenden Schlüsseltechnologie des 21. Jahrhunderts. Bull ist stolz auf Partnerschaft mit Jülich Bull Chairman und CEO Didier Lamouche, der Bull als einen der Hauptlieferanten vertrat, nahm an einer der Talkrunden mit Teilnehmern aus der Riege der Hersteller teil und nutzte die Gelegenheit, Bull s anhaltenden Erfolg im HPC-Markt zu erläutern: Dieses Projekt zeigt, dass Bull den Playern im Extreme Computing Markt gehört und dass es uns gelungen ist, sowohl mit marktführenden IT Unternehmen als auch mit renommierten Forschungszentren langfristige Partnerschaften erfolgreich zu etablieren. Bull ist hier und Ministerpräsident Rüttgers und Bundesministerin für Forschung und Bildung Schavan (Bildmitte) heute sehr stolz. In der Entwicklung einer umfassenden europäischen Supercomputing Infrastruktur ist uns ein sehr wichtiger Fortschritt gelungen. Im Rahmen einer Einweihung durfte natürlich auch ein symbolischer Start nicht fehlen. Das erledigten Ministerin Schavan, Ministerpräsident Rüttgers und Professor Dr. Bachem, indem sie gemeinsam einen überdimensionalen Schalter umlegten. Im Anschluss wollten sich die beiden Politiker wohl selbst überzeugen, was sie da eingeschaltet haben und nahmen die drei Supercomputer zusammen mit Vertretern 7

8 des Forschungszentrums und der beteiligten Systemlieferanten in Augenschein. Deutschland setzt im HPC auf partnerschaftliches Modell Die gesamte Veranstaltung in Jülich war, wie so viele Treffen innerhalb der HPC-Gemeinde, durch eine gelöste, freundschaftliche Atmosphäre geprägt. Es war spürbar, dass sich die Beteiligten aus Forschung, Wissenschaft und der Industrie persönlich gut kennen und teilweise seit Jahren partnerschaftliche Beziehungen unterhalten. Das sah offenbar auch Ministerin Schavan und erklärte: Der heutige Tag bestärkt uns, dass das partnerschaftliche Modell Deutschlands im Supercomputing richtig ist. Planet 51 wird auf Bull Supercomputer gerendert Die ILION Animation Studios wurden 2003 zur Produktion des Films Planet 51 gegründet. Das Studio hat seither mit modernster Technologie rund um Planet 51 ein paralleles Universum geschaffen. Das Ergebnis ist eine unglaubliche visuelle Erfahrung, die sich mit anderen Animationsfilmen nicht vergleichen lässt. Die ILION Animation Studios beschäftigen etwa 300 Designer, Entwickler und Ingenieure sowie andere Mitarbeiter aus 20 verschiedene Ländern, die sich bei einem Gesamtbudget von 70 Millionen Pfund mit der Herstellung von Planet 51 beschäftigen. Die ILION Animation Studios beauftragten Tangram Solutions in Kooperation mit Bull damit, die aufgrund des Wachstums notwendige Weiterentwicklung ihrer Renderfarm zu übernehmen. Dank des Expertenwissens, das Tangram Solutions im Mediensektor besitzt, und der Erfahrung, über die Bull in der Entwicklung großer High Performance Computing Cluster (einige davon sind in den Top500 gelistet) verfügt, stehen die ILION Animation Studios heute kurz vor Fertigstellung von Planet 51. Ihre Renderfarm besteht aus mehr als 2048 Intel Xeon Cores und läuft unter Microsoft Windows Compute Cluster Server 2003 (CCS), das die eingesetzte Rendersoftware am besten unterstützt. Innerhalb der Renderfarm arbeiten die Designer und Entwickler bei der Herstellung jedes einzelnen Frames, aus denen der Film besteht, als ein großes System zusammen und teilen ihre Informationen über ein Highspeed Netzwerk. Sony Pictures wird den Film in den USA am Thanksgiving Day und weltweit Ende 2009 in die Kinos bringen. Bull installiert GENCI s neuen Supercomputer Europas grösstes und weltweit zweitgrösstes Hybridsystem in weniger als zwei Wochen Der von GENCI (Nationale High-Performance Computing Organisation Frankreich) bestellte neue Bull Supercomputer geht nach einer nur zweiwöchigen Installationsphase in Betrieb. Das System soll das CCRT (Center for Research and Technology Computing) und dessen Partner bei seiner Arbeit unterstützen. Mit diesem, von der wissenschaftlichen Gemeinschaft als herausragender Erfolg betrachteten Installation bewies Bull einmal mehr sein Know-how im Bereich hybrider Architekturen und die hervorragende Qualität seiner Services. In einem Zeitraum von nur zwei Wochen haben Experten von Bull und der CEA/ DAM (French Atomic Energy Authority s Directorate of Military Affairs) den neuen Supercomputer für das CCRT bei GENCI installiert. Weitere drei Tage später konnten wir bereits den Beweis für die außergewöhnliche Effizienz dieses Clusters, der aus Intel Xeon Cores und ergänzenden NVIDIA Cores besteht, im Betrieb sehen. Der Cluster erreichte gegenüber dem Linpack Benchmark schon jetzt eine Effizienzrate von mehr als 91% und machte damit die tatsächliche Skalierbarkeit der Bull Architektur deutlich, erklärte Jean Gonnord, Leiter Computer Simulation und IT Projekte bei CEA/DAM. Dank seiner hybriden Architektur erfüllt das System alle Anforderungen von Appli- kationen für die Produktion und/oder Forschung. Der neue Supercomputer versorgt das wissenschaftliche Rechenzentrum des CCRT mit sehr viel zusätzlicher Rechenpower und bringt es damit auf den ersten Platz innerhalb der zivil genutzten Rechenzentren in Europa. Die Computersimulationen, die mit Unterstützung des CCRT ausgeführt werden, beschäftigen sich mit sehr unterschiedlichen Gebieten innerhalb von Wirtschaft und Forschung: Luftfahrt, Sicherheit von Kernreaktoren, Klimawandel, Entstehung neuer Galaxien, Verhalten von Materie, Genforschung, Imageprocessing in der Medizin... Das CCRT gehört zu den wenigen Höchstleistungsrechenzentren, das Partnern aus der Industrie und der Forschung offensteht. Zu den derzeitigen Partnern zählen verschiedene Abteilungen der CEA (Energie, Nukleartechnologie, Biowissenschaften, Naturwissenschaften, Militäranwendungen...), ONERA (National Office for Aerospatial Research and Studies) und CERFACS (European Center for Research and Advanced Training in Scientfic Computing) sowie unter anderem Unternehmen wie EADS/ Astrium, EDF, SNECMA, Techspace Aero und Turbomeca. Dank des neuen hybriden Supercomputers, den Bull entwickelt hat, kann GENCI Organisationen aus Forschung und Industrie die leistungsfähigsten Ressourcen sowohl für die Grundlagenforschung als auch für Anwendungen in der Produktion zur Verfügung stellen. Vor nur wenigen Monaten bestellt und in Rekordzeit installiert kommt diese Investition genau zum richtigen Zeitpunkt. Gerade in den heutigen Zeiten der Krise wird der Einsatz von Computersimulationstechnologie unbedingt benötigt, erklärte Catherine Rivière, Chairman von GENCI. Dieses System, die erste große Hybridmaschine in Europa, ist Ergebnis der Forschungs- und Entwicklungsarbeit von Bull R&D in Zusammenarbeit mit Experten von CEA/DAM und deren Partnern im Paris-Region Competitiveness Cluster. Entworfen und entwickelt von Bull zeichnet sich der Supercomputer durch seine hybride Architektur und eine sehr hohe Rechenleistung aus. Dank der engen Integration sogenannter GPUs für wissenschaftliche Berechnungen ist er nicht nur für Produktionsaufgaben sondern auch als Forschungsplattform ideal geeignet. Der neue Supercomputer besteht aus einem Cluster mit normalen 8-Core Computing Nodes (Intel Xeon 5500), die eine Leis- 8

9 tung von etwa 103 Teraflops erbringen, und 48 speziellen 960-Core GPU NVIDIA Nodes mit einer zusätzlichen theoretischen Gesamtleistung von bis zu 192 Teraflops. Auf diesen neuen Rekord unserer HPC- Teams sind wir besonders stolz, sagte Philippe Miltin, Vice-President Bull Products and Systems, denn er beweist deren außerordentliches Know-how. Der Zugang zu High-Performance Computersimulationsinfrastrukturen gehört zu den Schlüsselfaktoren, die in der Wirtschaft und der Forschung gleichermaßen für größere Wettbewerbsfähigkeit sorgen werden. Hier liegt auch für Bull eine strategische Wachstumschance: in einem Markt, in dem wir mehr als 120 Kunden in 15 Ländern und drei Kontinenten in weniger als vier Jahren gewinnen konnten. Heute haben wir mit unseren 500 Experten die umfangreichste HPC-Erfahrung in Europa und eines der größten HPC-Teams weltweit. Wir wollen in diesem strategischen Bereich Marktführer in Europa sein. Über GENCI GENCI gehört zu 50% dem französischen Staat (Ministerium für Hochschulbildung und Forschung), zu 20% der CEA, zu 20% dem CNRS und zu weiteren 10% Universitäten. Gegründet in 2007, hat GENCI folgende Mission: Förderung des Einsatzes von Modeling, Simulation und High-Performance Computing (HPC) in der Grundlagenforschung und der Wirtschaft Förderung des HPC in Europa mit eigenen Beiträgen Entwicklung und Koordination von Supercomputing Infrastruktur für Frankreichs zivile HPC-Zentren durch Beiträge zur Finanzierung und Übernahme von Anteilen Übernahme aller für die weitere Entwicklung und Optimierung dieser Einrichtungen notwendigen Forschungsarbeiten Öffnung aller eigenen Einrichtungen für interessierte Forschungsgemeinschaften aus Wirtschaft und Forschung auf nationaler, europäischer oder internationaler Ebene Weitere Informationen unter: Über CEA Die französische Atomenergiebehörde (CEA) gehört in der Forschung und Entwicklung zu den maßgeblichen innovativen Institutionen, insbesondere in drei Kernbereichen der Grundlagenforschung: Energie, Informationstechnologie und Gesundheit, Verteidigung und Sicherheit. Mit Forschern und anderen Mitarbeitern stellt die CEA für öffentliche Institutionen Wissen und Zukunftsdenken zur Verfügung. Als treibende Kraft für Innovation in der Wirtschaft hat die CEA außerdem zahlreiche Partnerschaften mit führenden Unternehmen in Frankreich und Europa entwickelt. Bull und CAPS beschleunigen Ihren Einstieg in das GPU Computing Entdecken Sie zusätzliche Leistungspotentiale für Ihre Applikationen auf NVIDIA Tesla-basierten Cluster Systemen Profitieren Sie von einem Remote Zugang auf das Ready-to-Use CAPS Compute Lab mit CAPS Tools und Support CAPS Compute Lab Konfiguration: 42 Teraflops mit 20 Bull R422 E2 Compute Nodes und 10 NVIDIA Tesla S1070 Servern Linux System mit Intel und GNU Compilern, NVIDIA CUDA und HMPP Programmierumgebung Kontakt: Druckbetankung für den Cluster Moderne Dateisysteme beschleunigen Datenzugriff in HPC-Umgebungen Greifen hunderte Clusterknoten gleichzeitig auf eine gemeinsam genutzte Datei zu, glaubt man das Ächzen herkömmlicher Fileservers fast schon hören zu können. Zu spüren ist es allemal: In so manchem Bereich des High-Performance-Computing (HPC) haben die typische Größen für Einund Ausgabedaten die Gigabyte-Grenze bereits weit hinter sich gelassen. Ist ein solcher Job über mehrere Clusterknoten verteilt, muss die Netzinfrastruktur Datenmengen im Terabytebereich bewegen. Mit einem konventionellen, zentralen Fileserver müssen Anwender deshalb allein für den Datentransport bereits lange Wartezeiten in Kauf nehmen, bevor ein umfangreicher Clusterjob überhaupt beginnen kann zu rechnen. Produktivität und Rentabilität des Clusters sinken. Dateisysteme für HA Spezielle Clusterdateisysteme wie beispielsweise GFS, OCFS2 oder CXFS taugen, dem Namen und manchen Werbeaussagen zum Trotz, nur bedingt als performante Speicherlösung für HPC-Cluster. Denn sie regeln zwar den Zugriff mehrerer Rechner auf ein gemeinsam genutztes Speichergerät, etwa eine logische Partition in einem SAN, doch dessen maximaler Datendurchsatz bleibt ein Flaschenhals. Nur selten verwenden deshalb hundert Rechner und mehr ein gemeinsames Clusterdateisystem, üblich sind sie hingegen in kleinen Clustern aus einer Handvoll Computern, wie sie typischerweise für Lösungen zur Hochverfügbarkeit oder Lastverteilung zum Einsatz kommen. Verteilte Dateisysteme Die schnellste Speicheranbindung eines HPC-Clusters erhält heute, wer ein so genanntes paralleles verteiltes Dateisystem einsetzt. Dort liegen die Einzelteile einer Datei verstreut über mehrere Storage-Server, ein oder mehrere Metadatenserver behalten den Überblick, wo die Bruchstücke jeder Datei zu finden sind. Dieses Vorgehen löst elegant mehrere Probleme auf einmal: So verteilt sich die Last der Dateizugriffe nun über die einzelnen Storage-Server, mit jedem zusätzlichen Server steigt damit auch der maximal mögliche Datendurchsatz. Zudem schafft jeder neue Server auch zusätzlichen Speicherplatz, so dass sich Bandbreite und Kapazität eines verteilten Dateisystems die Waage halten. Und ganz nebenbei lassen sich so auch umfangreiche Dateien speichern, deren Größe die Kapazität einer einzelnen Partition sprengen würde. 9

10 Das freie Dateisystem Lustre Ein vielversprechender Vertreter dieser Sparte ist das Dateisystem Lustre. Entwickelt wurde es ursprünglich durch mehrere Firmen im Auftrag des US-Energieministeriums, das nach einer schnellen Speicherlösung für seine Supercomputer suchte. Inzwischen steht es unter Linux frei und im Quelltext für jedermann zur Verfügung. Die Hauptentwicklung lag ursprünglich in der Hand der Firma Cluster File Systems, die von Sun Microsystems aufgekauft wurde und künftig wohl unter dem Dach von Oracle firmieren wird. Darüber hinaus bietet auch HP unter dem Namen SFS die Lustre-Technologie als kommerzielles Produkt an. Aufbau verteiltes Dateisystem: Ein verteiltes Dateisystem benutzt intelligenten Datenspeicher: Jedem Blockgerät ist ein Computer vorgeschaltet, der als Storageserver die Zugriffe der Clients koordiniert. Ein oder mehrere Metadatenserver teilen den Clients mit, welche Teile des Dateisystems sie von welchen Servern anfordern sollen. im Betastadium demonstriert, aber nie offiziell vertrieben. Die Samba-Entwickler haben mit der Cluster-Erweiterung CTDB die Möglichkeit geschaffen, ein verteiltes Dateisystem parallel über mehrere CIFS-Server zu exportieren. Das beschränkt zwar die Bandbreite einzelner Clients, lässt sich aber in Summe nachzu beliebig skalieren. Rein Windows-basierte Fileserver haben hingegen noch Nachholbedarf, wenn es um höchste Skalierbarkeit geht. Unter dem Strich bleiben für die Anwender dennoch gute Nachrichten, schließlich stehen ihnen in absehbarer Zeit durch Lustre und pnfs zwei freie Alternativen zur Verfügung, die Linux-Cluster und -Workstations hochperformant mit Daten versorgen können. Aufbau Clusterdateisystem: Mit Hilfe klassischer Clusterdateisysteme greifen mehrere Clientrechner auf einen gemeinsamen Speicherbereich zu. Der Speicher ist ein dummes Blockgerät, so dass die Clients sämtliche Zugriffe untereinander absprechen müssen. Lustre im Praxiseinsatz Als Referenz kann Lustre einige der schnellsten Supercomputer weltweit vorweisen, unter anderem die aktuelle Nummer zwei der Top500-Liste, das an der US- Bundesforschungseinrichtung in Oak Ridge installierte Jaguar-System. Es bietet nicht nur 1,6 Petaflops an Rechenleistung, sondern kann in Summe auch mit annähernd 300 GB/s auf gemeinsam genutzte Daten zugreifen. Künftige Installationen planen bereits mit Durchsatzraten jenseits der 1 TB/s. Angesichts dieser Zahlen wird nach Universitäten und Forschungsanstalten inzwischen auch die Industrie hellhörig. Erste Installationen des Lustre-Dateisystems im Unternehmensbereich, die die science+computing ag nun seit gut einem Jahr betreibt, sind zwar zugegebenermaßen im Vergleich zu den Supercomputern ein wenig bescheidener dimensioniert, dennoch konnten Performancewerte und Skalierungsverhalten die s+c-experten bislang überzeugen. Als ebenso schnelle wie kostengünstige Speicheranbindung für HPC-Cluster muss Lustre derzeit kaum Konkurrenz fürchten. Kommerzielle Alternativen Wer bereit ist, Geld für sein Clusterdateisystem in die Hand zu nehmen, kann noch zwischen weiteren Alternativen wählen: Zum einen bietet beispielsweise IBM mit GPFS ein verteiltes Dateisystem an, das sich aufgrund seiner Skalierungseigenschaften für den Einsatz in HPC-Clustern eignet. Darüber hinaus verfügt es über weiterreichende Schnittstellen etwa zur Langzeitarchivierung von Daten, die über die Anforderungen im reinen Clusterbetrieb hinausgehen. Zum anderen haben einige Anbieter Komplettsysteme aus Hard- und Software im Programm, mit denen sich skalierbare Fileserverlösungen realisieren lassen. Die Appliance des wohl bekanntesten Vertreters Panansas basiert technologisch auf einer Erweiterung des herkömmlichen NFS-Standards, das ähnlich wie Lustre parallele Zugriffe über mehrere NFS-Server gleichzeitig erlaubt. Hinter der pnfs genannten Entwicklung steht eine Kooperation von IT-Unternehmen, der neben Panasas auch weitere Storage-Größen wie EMC, NetApp angehören, die ihre Appliances so fit machen wollen selbst für die größten HPC-Cluster. Deshalb ist pnfs als neue Option in den kommenden Protokollstandard NFSv4.1 eingeflossen, der derzeit die letzten Stufen des Standardisierungsprozesses durchläuft. Langfristig soll damit die Möglichkeit zum parallelen Datenzugriff quer über alle Unix- und Linux-Systeme zur Verfügung stehen, und kürzlich hat selbst Microsoft die Entwicklung eines NFSv4.1-Clients für Windows in Auftrag gegeben. Skalierbarer Datenzugriff mit Windows Das verwundert nur wenig, denn für Windows-Clients sind die Alternativen rar. GPFS hat seit Kurzem eine Windows-Version im Portfolio, ein Lustre-Client seit geraumer Zeit Impressum/Kontakt Bull GmbH Theodor-Heuss-Str Köln Tel.: /305-0 Fax: / Redaktion Auke Kuiper Michael Rieger Warenzeichenhinweis: Alle fremden Marken und Produktnamen sind Warenzeichen bzw. eingetragene Warenzeichen der jeweiligen Titelhalter. Beiträge aus dem Bull HPC Newsletter dürfen mit Quellenangabe zitiert bzw. nachgedruckt werden. Gastbeiträge dürfen nur nach vorheriger Absprache mit dem jeweiligen Autor nachgedruckt werden. Diese Veröffentlichung dient ausschließlich der Information, Gewährleistungsansprüche sind ausgeschlossen. Den Bull HPC Newsletter können Sie unter abonnieren oder abbestellen. Er könnte auch für Ihre Kollegen interessant sein bitte empfehlen Sie uns weiter. Für Ihr Feedback nutzen Sie bitte die -adressen im Impressum. Wir freuen uns über Anregungen und Kommentare. Bull GmbH

11 11

ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf

ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012 Scientific Computing in Düsseldorf Peter Schreiber schreiber@hhu.de 0211-81-13913 http://www.zim.hhu.de ZKI Arbeitskreis Supercomputing 20.-21.09.2012

Mehr

Hochleistungs-Disk-I/O

Hochleistungs-Disk-I/O Hochleistungs-Disk-I/O mit Lustre, dcache und AFS eine vergleichende Betrachtung Stephan Wiesand DESY DV 33. Treffen des ZKI AK Supercomputing Hamburg, 2010-03-04 Computing am DESY Standort Zeuthen Batch

Mehr

Parallels Workstation Extreme: Weltweit erste professionelle Virtualisierungslösung für native 3D-Grafik

Parallels Workstation Extreme: Weltweit erste professionelle Virtualisierungslösung für native 3D-Grafik Parallels Workstation Extreme: Weltweit erste professionelle Virtualisierungslösung für native 3D-Grafik Technologie-Allianz mit HP, Intel und NVIDIA ermöglicht Betrieb dedizierter Profi-Grafikkarten im

Mehr

best Systeme GmbH Michael Beeck Geschäftsführer, CTO Michael.Beeck@best.de best Systeme GmbH

best Systeme GmbH Michael Beeck Geschäftsführer, CTO Michael.Beeck@best.de best Systeme GmbH best Systeme GmbH Michael Beeck Geschäftsführer, CTO Michael.Beeck@best.de best Systeme GmbH Münchner Str. 123a 85774 Unterföhring Tel: 089/950 60 80 Fax: 089/950 60 70 Web: www.best.de best Systeme GmbH

Mehr

Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de

Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften Agenda Einleitung Vor- und Nachteile der Virtualisierung Virtualisierungssoftware

Mehr

science + computing ag

science + computing ag science + computing ag Evaluation der Integration von Windows HPC in eine bestehende Berechnungsumgebung Harry Schlagenhauf science + computing ag IT-Dienstleistungen und Software für anspruchsvolle Rechnernetze

Mehr

Arrow - Frühjahrs-Special

Arrow - Frühjahrs-Special Arrow ECS GmbH Industriestraße 10a 82256 Fürstenfeldbruck T +49 (0) 81 41 / 35 36-0 F +49 (0) 81 41 / 35 36-897 Arrow - Frühjahrs-Special Hardware- und Software-Pakete, die überzeugen info@arrowecs.de

Mehr

Check_MK. 11. Juni 2013

Check_MK. 11. Juni 2013 Check_MK 11. Juni 2013 Unsere Vision IT-Monitoring muss werden: 1. einfach 2. performant 2 / 25 Was macht IT-Monitoring? IT-Monitoring: Aktives Überwachen von Zuständen Verarbeiten von Fehlermeldungen

Mehr

Dienstleistungen Abteilung Systemdienste

Dienstleistungen Abteilung Systemdienste Dienstleistungen Abteilung Systemdienste Betrieb zentraler Rechenanlagen Speicherdienste Systembetreuung im Auftrag (SLA) 2 HP Superdome Systeme Shared Memory Itanium2 (1.5 GHz) - 64 CPUs, 128 GB RAM -

Mehr

Titelmasterformat durch Klicken bearbeiten

Titelmasterformat durch Klicken bearbeiten Titelmasterformat durch Klicken Titelmasterformat durch Klicken Huawei Enterprise Server Systeme Global Player auf dem Server- und Storagemarkt Scale up Übersicht Titelmasterformat durch Klicken Textmasterformat

Mehr

init.at informationstechnologie GmbH Tannhäuserplatz 2/5.OG 1150 Wien Austria

init.at informationstechnologie GmbH Tannhäuserplatz 2/5.OG 1150 Wien Austria init.at informationstechnologie GmbH Tannhäuserplatz 2/5.OG 1150 Wien Austria Seite 2 von 10 1 Inhaltsverzeichnis 2 Warum CORVUS by init.at... 3 3 Ihre Vorteile durch CORVUS... 3 4 CORVUS Features... 4

Mehr

Der starke Partner für Ihre IT-Umgebung.

Der starke Partner für Ihre IT-Umgebung. Der starke Partner für Ihre IT-Umgebung. Leistungsfähig. Verlässlich. Mittelständisch. www.michael-wessel.de IT-Service für den Mittelstand Leidenschaft und Erfahrung für Ihren Erfolg. Von der Analyse

Mehr

White Paper Energieverbrauch ESPRIMO P920 0-Watt

White Paper Energieverbrauch ESPRIMO P920 0-Watt White Paper Energieverbrauch ESPRIMO P920 0-Watt Mit dem Ziel, die Führungsrolle bei der Implementierung der europäischen Umweltschutzvorschriften auszubauen, stellt Fujitsu Technology Solutions alle wichtigen

Mehr

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at

Mehr

Wir sind ein comteam-systemhaus

Wir sind ein comteam-systemhaus Wir sind ein comteam-systemhaus EDITORIAL EDITORIAL Liebe Leserinnen und Leser, herzlich willkommen zur brandneuen Herbst-Ausgabe unseres Magazins ErfolgsFaktor IT. Die EnoCom und das Redaktionsteam wünschen

Mehr

Zuerst zu Open Source wechseln

Zuerst zu Open Source wechseln Zuerst zu Open Source wechseln Zuerst zu Open Source wechseln Inhaltsverzeichnis Zuerst zu Open Source wechseln... 3 In die Mitte.... 4 Veränderungen in der Wirtschaftlichkeit der IT.... 6 2 Zuerst zu

Mehr

FACTSHEET. Backup «ready to go»

FACTSHEET. Backup «ready to go» FACTSHEET Backup «ready to go» Backup «ready to go» für Ihre Virtualisierungs-Umgebung Nach wie vor werden immer mehr Unternehmensanwendungen und -daten auf virtuelle Maschinen verlagert. Mit dem stetigen

Mehr

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick:

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Red Hat Storage Server Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Offene Software Lösung für Storage Ansprache über einen globalen Namensraum Betrachtet Storage als einen virtualisierten

Mehr

Cloud OS. eine konsistente Plattform. Private Cloud. Public Cloud. Service Provider

Cloud OS. eine konsistente Plattform. Private Cloud. Public Cloud. Service Provider Cloud OS Private Cloud Public Cloud eine konsistente Plattform Service Provider Trends 2 Das Cloud OS unterstützt jedes Endgerät überall zugeschnitten auf den Anwender ermöglicht zentrale Verwaltung gewährt

Mehr

Das Leibniz-Rechenzentrum

Das Leibniz-Rechenzentrum Andreas Heddergott, LRZ Das Leibniz-Rechenzentrum Das Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften ist der IT-Dienstleister der Münchner Universitäten und Hochschulen. Es bietet weit

Mehr

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz MOGON Markus Tacke HPC ZDV HPC - AHRP Was ist Mogon allgemein? Das neue High Performance Cluster der JGU Ein neues wichtiges Werkzeug für Auswertung von Messdaten und Simulationen Beispiele Kondensierte

Mehr

Heterogenes Speichermanagement mit V:DRIVE

Heterogenes Speichermanagement mit V:DRIVE Heterogenes Speichermanagement mit V:DRIVE V:DRIVE - Grundlage eines effizienten Speichermanagements Die Datenexplosion verlangt nach innovativem Speichermanagement Moderne Businessprozesse verlangen auf

Mehr

Klein Computer System AG. Portrait

Klein Computer System AG. Portrait Klein Computer System AG Portrait Die Klein Computer System AG wurde 1986 durch Wolfgang Klein mit Sitz in Dübendorf gegründet. Die Geschäftstätigkeiten haben sich über die Jahre stark verändert und wurden

Mehr

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Cloud-Computing Seminar Hochschule Mannheim WS0910 1/23 Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Fakultät für Informatik Hochschule

Mehr

egs Storage Offensive

egs Storage Offensive egs Storage Offensive Seit mittlerweile 5 Jahren können wir eine enge Partnerschaft zwischen der egs Netzwerk und Computersysteme GmbH und dem führenden Anbieter im Bereich Datenmanagement NetApp vorweisen.

Mehr

Die Cloud, die für Ihr Unternehmen geschaffen wurde.

Die Cloud, die für Ihr Unternehmen geschaffen wurde. Die Cloud, die für Ihr Unternehmen geschaffen wurde. Das ist die Microsoft Cloud. Jedes Unternehmen ist einzigartig. Ganz gleich, ob im Gesundheitssektor oder im Einzelhandel, in der Fertigung oder im

Mehr

Der Weg zur modernen IT-Infrastruktur mit FlexPod

Der Weg zur modernen IT-Infrastruktur mit FlexPod Der Weg zur modernen IT-Infrastruktur mit FlexPod Der Weg zur modernen IT-Infrastruktur mit FlexPod Das Herzstück eines Unternehmens ist heutzutage nicht selten die IT-Abteilung. Immer mehr Anwendungen

Mehr

ThinkStation P-Series Anwendungsbreiche

ThinkStation P-Series Anwendungsbreiche 39 ThinkStation P-Series Anwendungsbreiche Thinkstation Vertikale Lösungen Öl & Gas Produktentwicklung Media & Entertainment Finanz, Wertpapierhandel Medizin & Forschung 40 2014 LENOVO INTERNAL. ALL RIGHTS

Mehr

Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung

Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung Fritz Günther 17.03.2014 Folie 1 Agenda Was ist Virtualisierung Server- / Clientvirtualisierung

Mehr

HP ConvergedSystem Technischer Teil

HP ConvergedSystem Technischer Teil HP ConvergedSystem Technischer Teil Rechter Aussenverteidiger: Patrick Buser p.buser@smartit.ch Consultant, SmartIT Services AG Linker Aussenverteidiger: Massimo Sallustio massimo.sallustio@hp.com Senior

Mehr

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN CLOUD-ENTWICKLUNG: BESTE METHODEN 1 Cloud-basierte Lösungen sind auf dem IT-Markt immer weiter verbreitet und werden von immer mehr

Mehr

Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund

Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund Das Wissenschaftlichen Rechnen hat sich in Forschung und Lehre in den letzten Jahren zu einem wichtigen

Mehr

AKTIVIEREN Sie die versteckten Potenziale Ihrer IT-Infrastruktur!

AKTIVIEREN Sie die versteckten Potenziale Ihrer IT-Infrastruktur! AKTIVIEREN Sie die versteckten Potenziale Ihrer IT-Infrastruktur! 1 Die IT-Infrastrukturen der meisten Rechenzentren sind Budgetfresser Probleme Nur 30% der IT-Budgets stehen für Innovationen zur Verfügung.

Mehr

Managed Infrastructure Service (MIS) Schweiz

Managed Infrastructure Service (MIS) Schweiz Pascal Wolf Manager of MIS & BCRS Managed Infrastructure Service (MIS) Schweiz 2011 Corporation Ein lokaler Partner in einem global integrierten Netzwerk Gründung im Jahr 2002 mit dem ersten full-outtasking

Mehr

herzlich vsankameleon Anwendungsbeispiel Titelmasterformat durch Klicken bearbeiten willkommen Titelmasterformat durch Klicken bearbeiten

herzlich vsankameleon Anwendungsbeispiel Titelmasterformat durch Klicken bearbeiten willkommen Titelmasterformat durch Klicken bearbeiten herzlich willkommen vsankameleon Anwendungsbeispiel Powered by DataCore & Steffen Informatik vsan? Kameleon? vsan(virtuelles Storage Area Network) Knoten Konzept Titelmasterformat Alle HDD s über alle

Mehr

IT Storage Cluster Lösung

IT Storage Cluster Lösung @ EDV - Solution IT Storage Cluster Lösung Leistbar, Hochverfügbar, erprobtes System, Hersteller unabhängig @ EDV - Solution Kontakt Tel.: +43 (0)7612 / 62208-0 Fax: +43 (0)7612 / 62208-15 4810 Gmunden

Mehr

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension

Mehr

Next Generation IaaS von ProfitBricks

Next Generation IaaS von ProfitBricks Next Generation IaaS von ProfitBricks Warum IaaS? Was ist IaaS? SaaS Software as a Service IaaS Infrastructure as a Service RaaS Recovery as a Service PaaS Platform as a Service IaaS = Virtuelles Rechenzentrum

Mehr

Leistung und Betriebskosten im perfekten Verhältnis: MAXDATA PLATINUM Serverplattform mit Dual-Core Intel Xeon Prozessoren

Leistung und Betriebskosten im perfekten Verhältnis: MAXDATA PLATINUM Serverplattform mit Dual-Core Intel Xeon Prozessoren Leistung und Betriebskosten im perfekten Verhältnis: MAXDATA PLATINUM Serverplattform mit Dual-Core Intel Xeon Prozessoren Leistung und Betriebskosten im perfekten Verhältnis: MAXDATA PLATINUM Serverplattform

Mehr

Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen

Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem hristian Terboven Rechen- und Kommunikationszentrum RWTH Aachen 1 Hochleistungsrechnen mit Windows enter omputing and ommunication

Mehr

Shibboleth Clustering und Loadbalancing

Shibboleth Clustering und Loadbalancing Shibboleth Clustering und Loadbalancing STEINBUCH CENTRE FOR COMPUTING - SCC KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Computercluster

Mehr

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1 Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer

Mehr

Total Cost of Ownership Vergleich Linux/Windows

Total Cost of Ownership Vergleich Linux/Windows Aktuelle Themen der Informatik Total Cost of Ownership Vergleich Linux/Windows Tobias Walter CN7 Mai 2006 1 Agenda Was ist Total Cost of Ownership? 2005 North American Linux and Windows TCO Comparison

Mehr

IT-Monitoring braucht Sicherheit Sicherheit braucht Monitoring. Günther Klix op5 GmbH - Area Manager D/A/CH

IT-Monitoring braucht Sicherheit Sicherheit braucht Monitoring. Günther Klix op5 GmbH - Area Manager D/A/CH IT-Monitoring braucht Sicherheit Sicherheit braucht Monitoring Günther Klix op5 GmbH - Area Manager D/A/CH Technische Anforderungen an IT Immer komplexere & verteiltere Umgebungen zunehmend heterogene

Mehr

Alles unter. Referenzkundenbericht. Telefonie / Rechenzentrumsdienste. Die private EBS Universität für Wirtschaft

Alles unter. Referenzkundenbericht. Telefonie / Rechenzentrumsdienste. Die private EBS Universität für Wirtschaft Referenzkundenbericht Telefonie / Rechenzentrumsdienste Alles unter Kontrolle Die private EBS Universität für Wirtschaft und Recht setzt in der Informationstechnologie und Telekommunikation konsequent

Mehr

Virtualisierung ein Überblick

Virtualisierung ein Überblick Virtualisierung ein Überblick Frank Hofmann Potsdam 18. April 2007 Frank Hofmann (Potsdam) Virtualisierung ein Überblick 18. April 2007 1 / 33 Gedanken zum Thema Fragen, die sich jeder stellt Virtualisierung

Mehr

Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation

Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation 1 Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation Dr. G. Wellein, Regionales Rechenzentrum Erlangen Supercomputer

Mehr

T-Systems. Managed business flexibility.

T-Systems. Managed business flexibility. T-Systems. Managed business flexibility. = Der Wettbewerb wird härter. Werden Sie flexibler! = Im globalen Business wird das Klima rauer. Wer vorn bleiben will, muss jederzeit den Kurs ändern können. Dies

Mehr

Einsparung von Wartungs- und Lizenzkosten durch Konsolidierung

Einsparung von Wartungs- und Lizenzkosten durch Konsolidierung Einsparung von Wartungs- und Lizenzkosten durch Konsolidierung Peter Stalder DOAG November 2009 Basel Baden Bern Lausanne Zurich Düsseldorf Frankfurt/M. Freiburg i. Br. Hamburg Munich Stuttgart Vienna

Mehr

Oracle Whitepaper. Oracle Database Appliance Häufig gestellte Fragen

Oracle Whitepaper. Oracle Database Appliance Häufig gestellte Fragen Oracle Whitepaper Oracle Database Appliance Was ist die Oracle Die Oracle Database Appliance ist ein hochverfügbares geclustertes Datenbanksystem, dessen Software, Server, Speichergeräte und Netzwerktechnik

Mehr

MEETINGBOARD MEETINGPAD MEETING SOFTWARE MEETING SERVICES interwri nterwrite MEETING SUITE IM ZEICHEN ERFOLGREICHER MEETINGS meetingboard Machen Sie mehr aus Ihren Präsentationen. Das InterWrite MeetingBoard

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

Betrieb eines heterogenen Clusters

Betrieb eines heterogenen Clusters Betrieb eines heterogenen Clusters Georg Hager Regionales Rechenzentrum Erlangen (RRZE) ZKI AK Supercomputing Karlsruhe, 22./23.09.2005 Transtec GBit/IB-Cluster am RRZE IA32-Cluster 04/2003 86+2 Knoten

Mehr

Kaum irgendwo auf der Welt gibt es bessere Möglichkeiten hierzu als in Garching mit seinen exzellenten Hochschul- und Forschungseinrichtungen.

Kaum irgendwo auf der Welt gibt es bessere Möglichkeiten hierzu als in Garching mit seinen exzellenten Hochschul- und Forschungseinrichtungen. Sperrfrist: 29.06.2015, 13.00 Uhr Es gilt das gesprochene Wort. Grußwort des Bayer. Staatsministers für Bildung und Kultus, Wissenschaft und Kunst, Dr. Ludwig Spaenle, bei der Inbetriebnahme der Phase

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

Return-on- Investment? Setzen Sie auf HiPath. www.hipath.de

Return-on- Investment? Setzen Sie auf HiPath. www.hipath.de s Return-on- Investment? Setzen Sie auf HiPath. Return-on-Investment durch höhere Rentabilität. HiPath schafft neue Möglichkeiten der Wertschöpfung. Vorteile, auf die niemand verzichten kann. Reduzierte

Mehr

Diskless Cluster und Lustre Erfahrungsbericht zum CHiC

Diskless Cluster und Lustre Erfahrungsbericht zum CHiC Diskless Cluster und Lustre Erfahrungsbericht zum CHiC, Torsten Hoefler, Torsten Mehlan und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität

Mehr

Wir befinden uns inmitten einer Zeit des Wandels.

Wir befinden uns inmitten einer Zeit des Wandels. Wir befinden uns inmitten einer Zeit des Wandels. Geräte Apps Ein Wandel, der von mehreren Trends getrieben wird Big Data Cloud Geräte Mitarbeiter in die Lage versetzen, von überall zu arbeiten Apps Modernisieren

Mehr

Cisco erweitert Gigabit-Ethernet-Portfolio

Cisco erweitert Gigabit-Ethernet-Portfolio Seite 1/6 Kleine und mittelständische Unternehmen Neue 1000BaseT-Produkte erleichtern die Migration zur Gigabit-Ethernet- Technologie WIEN. Cisco Systems stellt eine Lösung vor, die mittelständischen Unternehmen

Mehr

herzlich Citrix Update Webinar Titelmasterformat durch Klicken bearbeiten willkommen 27. Mai 2015 Titelmasterformat durch Klicken bearbeiten

herzlich Citrix Update Webinar Titelmasterformat durch Klicken bearbeiten willkommen 27. Mai 2015 Titelmasterformat durch Klicken bearbeiten herzlich willkommen Citrix Update Webinar 27. Mai 2015 Titelmasterformat Vorstellungsrunde durch Klicken bearbeiten André Stutz Geschäftsleiter BCD-SINTRAG AG Ivo Gonzenbach Geschäftsführung Niederlassung

Mehr

Frederik Wagner Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften

Frederik Wagner Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften Erfahrungen mit Single-Namespace NFS im HPC-Umfeld Frederik Wagner Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften Das Linux-Cluster am LRZ 2 Speichersysteme am Linux-Cluster Homeverzeichnisse

Mehr

Prototypvortrag. Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning. Projektseminar WS 2009/10

Prototypvortrag. Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning. Projektseminar WS 2009/10 Prototypvortrag Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning Projektseminar WS 2009/10 Eugen Fot, Sebastian Kenter, Michael Surmann AG Parallele

Mehr

Managed Cloud Services

Managed Cloud Services Managed Cloud Services Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Cloud Services

Mehr

via.solution Bedarfsgerechte IT-Konzepte für den Mittelstand Wir generieren Lösungen

via.solution Bedarfsgerechte IT-Konzepte für den Mittelstand Wir generieren Lösungen via.solution Bedarfsgerechte IT-Konzepte für den Mittelstand Das Unternehmen Gegründet 2000 Standorte nahe Berlin, Frankfurt/Main und Kuala Lumpur derzeit 20 Mitarbeiter (Stammpersonal) strategische Partnerschaften

Mehr

Marketing Update. Enabler / ENABLER aqua / Maestro II

Marketing Update. Enabler / ENABLER aqua / Maestro II Marketing Update Enabler / ENABLER aqua / Maestro II Quartal 01/2013 1 Kommentar des Herausgebers Liebe Kunden und Partner, dieser Marketing Update gibt Ihnen einen kurzen Überblick über die aktuell verfügbaren

Mehr

Im Folgenden stellen wir Ihnen die überarbeiteten Leistungsmerkmale von Windows Server 2012 R2 vor.

Im Folgenden stellen wir Ihnen die überarbeiteten Leistungsmerkmale von Windows Server 2012 R2 vor. Microsoft Windows Server 2012 R2 Kapitel 1 Windows Server 2012 R2 Die erprobte Serverplattform Windows Server 2012 baut auf umfangreichen Erfahrungen mit dem Aufbau und dem Betrieb der weltgrößten Cloud-basierten

Mehr

Private Cloud mit Eucalyptus am SCC

Private Cloud mit Eucalyptus am SCC Private Cloud mit Eucalyptus am SCC Christian Baun 15. Dezember 2009 KIT The cooperation of Forschungszentrum Karlsruhe GmbH und Universität Karlsruhe (TH) http://www.kit.edu Cloud-Comuting = Grid-Computing?!

Mehr

Herzlich willkommen! 25.4. Bad Homburg 27.4. Hamburg 04.5. München

Herzlich willkommen! 25.4. Bad Homburg 27.4. Hamburg 04.5. München Herzlich willkommen! 25.4. Bad Homburg 27.4. Hamburg 04.5. München Die Corpus Immobiliengruppe Ein Anwenderbericht über die Einführung von SAN Technologie in 3 Phasen Guntram A. Hock Leiter Zentralbereich

Mehr

Aufbau einer Testumgebung mit VMware Server

Aufbau einer Testumgebung mit VMware Server Aufbau einer Testumgebung mit VMware Server 1. Download des kostenlosen VMware Servers / Registrierung... 2 2. Installation der Software... 2 2.1 VMware Server Windows client package... 3 3. Einrichten

Mehr

Herzlich willkommen zur Präsentation:

Herzlich willkommen zur Präsentation: Seite 1 Herzlich willkommen zur Präsentation: Der Diskless Shared Root Cluster eine optimale Plattform für SAP Dipl. Ing. (FH) Reiner Rottmann rottmann@atix.de 19 April 2007 Seite 2 Wir helfen Ihnen, Ihre

Mehr

bw-grid Cluster in Mannheim

bw-grid Cluster in Mannheim bw-grid Cluster in Mannheim Dr. Heinz Kredel mit Helmut Fränznick, Rudi Müller, Steffen Hau, Andreas Baust Inhalt Grid und D-Grid BMBF Projekt bw-grid Cluster Stand: Aufbau und Inbetriebnahme Benutzung

Mehr

Leistungsaspekte von Linux und Windows Betriebssystemen in Cluster-Dateisystemen (Teil 2)

Leistungsaspekte von Linux und Windows Betriebssystemen in Cluster-Dateisystemen (Teil 2) Leistungsaspekte von Linux und Windows Betriebssystemen in Cluster-Dateisystemen (Teil 2) Jan Wender, Daniel Kobras science + computing ag IT-Dienstleistungen und Software für anspruchsvolle Rechnernetze

Mehr

Cloud- CRM mit Deutschland- Garantie. Die Lösung. heißt jetzt: Weniger kompliziert. Mehr einfach

Cloud- CRM mit Deutschland- Garantie. Die Lösung. heißt jetzt: Weniger kompliziert. Mehr einfach Cloud- CRM mit Deutschland- Garantie. Die Lösung heißt jetzt: Weniger kompliziert Mehr einfach Mehr Sicherheit Mehr Team Mehr finden Mehr individuell Mehr Schnelligkeit Mehr Top Service Mehr Support Mehr

Mehr

Storage-Trends am LRZ. Dr. Christoph Biardzki

Storage-Trends am LRZ. Dr. Christoph Biardzki Storage-Trends am LRZ Dr. Christoph Biardzki 1 Über das Leibniz-Rechenzentrum (LRZ) Seit 50 Jahren Rechenzentrum der Bayerischen Akademie der Wissenschaften IT-Dienstleister für Münchner Universitäten

Mehr

HP Server Solutions Event The Power of ONE

HP Server Solutions Event The Power of ONE HP Server Solutions Event The Power of ONE Workload optimierte Lösungen im Bereich Client Virtualisierung basierend auf HP Converged Systems Christian Morf Business Developer & Sales Consultant HP Servers

Mehr

Das virtuelle Rechenzentrum

Das virtuelle Rechenzentrum Das virtuelle Rechenzentrum Erfahrungen, Meinungen, Visionen CON.ect Informunity Infrastrukturmanagement, Virtualisierung & Green IT Wien, 26.3.2009 Georg Chytil, Ing. Andreas Schoder georg.chytil@nextlayer.at,

Mehr

HP User Society. Wir bewirken mehr. DECUS München e.v.

HP User Society. Wir bewirken mehr. DECUS München e.v. DECUS München e.v. Reden Sie mit. 2004 Hewlett-Packard Development Company, L.P. + 2005 DECUS München e.v. The information contained herein is subject to change without notice Wir bewirken mehr. Größte

Mehr

Wir freuen uns auf Ihr Kommen. AddOn (Schweiz) AG

Wir freuen uns auf Ihr Kommen. AddOn (Schweiz) AG E x e c u t i v e I n f o r m a t i o n «E i n W e g d e r s i c h l o h n t S A P R e - P l a t f o r m i n g m i t M i c ro s o f t» E i n W e g d e r s i c h l o h n t S A P R e - P l a t f o r m i

Mehr

Fujitsu Siemens Computer FlexFrame-Technologie und der REALTECH theguard! ApplicationManager. Status: 12.11.08

Fujitsu Siemens Computer FlexFrame-Technologie und der REALTECH theguard! ApplicationManager. Status: 12.11.08 Fujitsu Siemens Computer FlexFrame-Technologie und der REALTECH theguard! ApplicationManager Status: 12.11.08 Inhalt Einführung in FlexFrame... 3 Überwachung und Analyse von FlexFrame mit theguard! ApplicationManager...

Mehr

Infrastrukturanalyse Ihr Weg aus dem Datenstau

Infrastrukturanalyse Ihr Weg aus dem Datenstau Waltenhofen * Düsseldorf * Wiesbaden Infrastrukturanalyse Ihr Weg aus dem Datenstau SCALTEL Webinar am 20. Februar 2014 um 16:00 Uhr Unsere Referenten Kurze Vorstellung Stefan Jörg PreSales & Business

Mehr

Smart. network. Solutions. myutn-80

Smart. network. Solutions. myutn-80 Smart network Solutions myutn-80 Version 2.0 DE, April 2013 Smart Network Solutions Was ist ein Dongleserver? Der Dongleserver myutn-80 stellt bis zu acht USB-Dongles über das Netzwerk zur Verfügung. Sie

Mehr

HARTING Ha-VIS econ Ethernet Switches Vielseitig. Kompakt. Effizient.

HARTING Ha-VIS econ Ethernet Switches Vielseitig. Kompakt. Effizient. HARTING Ha-VIS econ Ethernet Switches Vielseitig. Kompakt. Effizient. HARTING Ha-VIS econ Switches Unsere Switches passen überall. Besonders zu Ihren Herausforderungen. Die Netzwerke in modernen Produktionsanlagen

Mehr

Hochleistungsrechnen für Wissenschaft und Wirtschaft im internationalen Verbund

Hochleistungsrechnen für Wissenschaft und Wirtschaft im internationalen Verbund Hochleistungsrechnen für Wissenschaft und Wirtschaft im internationalen Verbund Prof. Dr. rer. nat. Christian Schröder Dipl.-Ing. Thomas Hilbig, Dipl.-Ing. Gerhard Hartmann Fachbereich Elektrotechnik und

Mehr

Brainware für Green IT

Brainware für Green IT Brainware für Green IT Christian Bischof FG Scientific Computing Hochschulrechenzentrum Technische Universität Darmstadt 04.06.2012 Einweihung HPC Cluster Rheinland Pfalz C. Bischof 1 Die Welt des High-Performance

Mehr

Kliniken des Landkreises Lörrach GmbH

Kliniken des Landkreises Lörrach GmbH Die Kliniken des ist ein medizinisches Dienstleistungsunternehmen, das eine bedarfsgerechte Versorgung mit Krankenhausleistungen auf hohem Niveau erbringt. Kliniken des Landkreises Lörrach Im Zuge der

Mehr

NOCTUA by init.at DAS FLEXIBLE MONITORING WEBFRONTEND

NOCTUA by init.at DAS FLEXIBLE MONITORING WEBFRONTEND NOCTUA by init.at DAS FLEXIBLE MONITORING WEBFRONTEND init.at informationstechnologie GmbH - Tannhäuserplatz 2 - A-1150 Wien - www.init.at Dieses Dokument und alle Teile von ihm bilden ein geistiges Eigentum

Mehr

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG!

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! JUNI 2011 Sehr geehrter Geschäftspartner, (oder die, die es gerne werden möchten) das Thema Virtualisierung oder die Cloud ist in aller Munde wir möchten Ihnen

Mehr

CIBER DATA CENTER für höchste Ansprüche an Datensicherheit

CIBER DATA CENTER für höchste Ansprüche an Datensicherheit CIBER Hosting Services CIBER DATA CENTER für höchste Ansprüche an Datensicherheit Die Sicherheit Ihrer Daten steht bei CIBER jederzeit im Fokus. In den zwei georedundanten und mehrfach zertifizierten Rechenzentren

Mehr

IT-Lösungsplattformen

IT-Lösungsplattformen IT-Lösungsplattformen - Server-Virtualisierung - Desktop-Virtualisierung - Herstellervergleiche - Microsoft Windows 2008 für KMU s Engineering engineering@arcon.ch ABACUS Kundentagung, 20.11.2008 1 Agenda

Mehr

27. 03. 2007 IT-Frühstück IT Trend Virtualisierung Hype oder Nutzen? Praxisaspekte

27. 03. 2007 IT-Frühstück IT Trend Virtualisierung Hype oder Nutzen? Praxisaspekte Ole Raether raether@oraservices.de 27. 03. 2007 IT-Frühstück IT Trend Virtualisierung Hype oder Nutzen? Praxisaspekte Inhalt oraservices.de Probleme: Failover Cluster, RAC 24*7 Fazit Was tun? oraservices.de

Mehr

Mobility Expert Bar: Der Desktop aus dem Rechenzentrum

Mobility Expert Bar: Der Desktop aus dem Rechenzentrum Mobility Expert Bar: Der Desktop aus dem Rechenzentrum Andreas Fehlmann Solution Sales Lead Hosted Desktop Infrastructure Hewlett-Packard (Schweiz) GmbH Daniel Marty Sales Specialist Server Hewlett-Packard

Mehr

internationalen Verbund

internationalen Verbund University of Applied Sciences 1 zur Optimierung der Wertschöpfungsketten Hochleistungsrechnen für Wissenschaft und Wirtschaft im internationalen Verbund Prof. Dr. rer. nat. Christian Schröder stellv.

Mehr

Computerpflege. Windows XP Update (Arbeitssicherheit) Dieses Programm öffnet die Internetseite von Windows. Starten Sie die [Schnellsuche].

Computerpflege. Windows XP Update (Arbeitssicherheit) Dieses Programm öffnet die Internetseite von Windows. Starten Sie die [Schnellsuche]. Computerpflege Neben dem Virus Schutz ist es sehr wichtig den PC regelmässig zu Pflegen. Es sammeln sich täglich verschiedene Dateien an die nicht wirklich gebraucht werden und bedenkenlos gelöscht werden

Mehr

HostedDesktop in Healthcare

HostedDesktop in Healthcare HostedDesktop in Healthcare Neue Möglichkeiten Neues Potential 23. Juni 2015 Rene Jenny CEO, Leuchter IT Infrastructure Solutions AG Martin Regli Managing Director, passion4it GmbH Trends im Gesundheitswesen

Mehr

Server- und Storagelösungen, die mit Ihrem Business wachsen

Server- und Storagelösungen, die mit Ihrem Business wachsen Server- und Storagelösungen, die mit Ihrem Business wachsen Success Solution April 2015 Abbildung ähnlich Der FUJITSU Server PRIMERGY RX2520 M1 ist eine effiziente und skalierbare Plattform für grundlegende

Mehr

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel Freiberuflicher Schwerpunkte: Unix, Oracle, Netzwerk 2005 1 Testaufbauten von Oracle 10g RAC auf preiswerter Hardware 2 3 Typisches Cluster System Clients Public Network Node A Node B Cluster Interconnect

Mehr

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2.

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2. Cloud Computing Frank Hallas und Alexander Butiu Universität Erlangen Nürnberg, Lehrstuhl für Hardware/Software CoDesign Multicorearchitectures and Programming Seminar, Sommersemester 2013 1. Definition

Mehr

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. 7 Key Features.

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. 7 Key Features. Inhalt 1 Übersicht 2 Anwendungsbeispiele 3 Einsatzgebiete 4 Systemanforderungen 5 Lizenzierung 6 Installation 7 Key Features Seite 2 von 11 1. Übersicht MIK.mobile for ipad ist eine Business Intelligence

Mehr

Enterprise Mobility Marktüberblick und Trends STEFAN KÜHLE DIPLOM-INGENIEUR (FH) BUSINESS DEVELOPMENT MANAGER

Enterprise Mobility Marktüberblick und Trends STEFAN KÜHLE DIPLOM-INGENIEUR (FH) BUSINESS DEVELOPMENT MANAGER Enterprise Mobility Marktüberblick und Trends STEFAN KÜHLE DIPLOM-INGENIEUR (FH) BUSINESS DEVELOPMENT MANAGER AGENDA SEVEN PRINCIPLES Enterprise Mobility: Trends und Einflüsse Herausforderungen Enterprise

Mehr