Cluster Computing & OpenSource
|
|
- Ella Weber
- vor 6 Jahren
- Abrufe
Transkript
1 Foliensatz Center for Information Services and High Performance Computing (ZIH) Cluster Computing & OpenSource Ein Überblick 15. März 2009 Verfügbarkeit der Folien Vorlesungswebsite: zih/lehre/ws0910/lctp Nöthnitzer Straße Dresden INF Robin Geyer 2/86 Inhalt 1 Einführung / Motivation 2 Begriffe, Basics und Architekturen m 3 Systemsoftware 1 Einführung / Motivation Clusterchallenge Vorlesung High Performance Computing 4 Anwendungssoftware / Optimierung 5 Quellen 3/86 4/86
2 Clusterchallenge Clusterchallenge / Ergebnis Supercomputing: Konferenz mit angeschlossenen Wettbewerben Clusterchallenge: 3kW Strom, vorgegebene Software, viele Jobs (unterschiedliche Punkte), 44h Zeit. Gewinner ist der der die meisten Punkte geholt hat. 5/86 6/86 Motivation für Vorlesung / Cluster in Top500 Motivation für Vorlesung / Weitere Gründe Erfahrungen aus Clusterchallenge weitergeben Zum ersten Mal Vorlesung/Praktikum zum Clusterbau und Administration Theoretische Betrachtungen mit praktischen Erfahrungen untermauern Nächstes Siegerteam für Clusterchallenge ausbilden?!? 7/86 8/86
3 Wozu High Performance Computing (HPC)? Wozu High Performance Computing (HPC)? Simulation Komplexe Systeme modellieren ohne aufwändige Experimente Geringe Kosten im Vergleich zu Experimenten Später im Praktikum benutzte Software: POVRay und WPP Simulation Komplexe Systeme modellieren ohne aufwändige Experimente Geringe Kosten im Vergleich zu Experimenten Später im Praktikum benutzte Software: POVRay und WPP Datenauswertung Unabdingbar um komplexe Experimente zu verstehen Später im Praktikum benutzte Software: MpCCD und RAxML 9/86 9/86 Wozu High Performance Computing (HPC)? Simulation Komplexe Systeme modellieren ohne aufwändige Experimente Geringe Kosten im Vergleich zu Experimenten Später im Praktikum benutzte Software: POVRay und WPP Datenauswertung Unabdingbar um komplexe Experimente zu verstehen Später im Praktikum benutzte Software: MpCCD und RAxML Entwicklung und Test neuer Technologien Wozu HPC / Simulation Beispiel: Ausbreitung seismischer Wellen in verschiedenen Materialien (WPP) 9/86 10/86
4 Wozu HPC / Datenauswertung Beispiel: Phylogenetische Bäume aus Gensequenzen erzeugen (RAxML) 2 Begriffe, Basics und Architekturen Begriffe Aufbau Komponenten Verbindungsnetze Systeme im Praktikum 11/86 12/86 Begriff / Lastverteilung und Parallelität Begriff / Capacity und Capability Computing Idee der parallelen Verarbeitung Ressourcenintensive Anwendungen benutzen verteilte Hardware Ressourcen: CPUs, Hauptspeicher, persistenter Speicher... Vorteile: Höhere Kapazitäten als in Einzelsystem Erhöhte Redundanz und Ausfallsicherheit Capacity Computing Stellt die Ressourcen bereit, um große Mengen von kleineren Problemen im Bulk zu Lösen. Die Anwendungen die dabei zum Einsatz kommen stellen meist verhältnismäßig geringe Anforderungen an die einzelnen Hardwareelemente. Capability Computing Bietet Ressourcen, um Probleme zu lösen die durch Capacity Computing nicht lösbar wären. Diese Probleme stellen derart hohe Anforderungen an die Hardware, dass dafür spezielle Systeme zum Einsatz kommen müssen. Die Grenzen sind dabei fließend. 13/86 14/86
5 Capacity vs. Capability Computing Begriff / Cluster Erkennen des Problems welches gelöst werden soll Frühzeitige Entscheidung für Capacity oder Capability Computing Capability Computing benötigt Cluster u.u. ungeeignet Cluster Verknüpfung von Standardkomponenten höchster Qualität über ein Hochgeschwindigkeitsnetzwerk auf engstem Raum und deren paralleler Nutzung durch lastverteilte (parallelisierte) Programme. 15/86 16/86 Aufbau / Grundbausteine für Cluster Aufbau / Homogenität und Heterogenität Node Node Node Node RAM RAM RAM RAM CPU Core Core Core Core Grafik- Karte CPU Core Core Core Core Grafik- Karte CPU Core Core Core Core Grafik- Karte CPU Core Core Core Core Grafik- Karte Input / Output Input / Output Input / Output Input / Output Homogenität & Heterogenität HDD HDD HDD HDD Sind sowohl Hardware als auch Betriebssystem aller Rechnerknoten identisch, so spricht man von einem homogenen Cluster, andernfalls ist der Cluster heterogen. Interconnect Fabric Storage Storage 17/86 18/86
6 Komponenten / CPU Komponenten / Festplatten x86: Xeon, Opteron, Core, Phenom... Preiswert Schnell (genug) Viel Software sparc: Also Sun oder Fujitsu Teurer, spezialisiert Für (Web)server-Cluster (SSL, Mail, Online Gaming, Datenbanken,...) Diese auf Integer-Leistung angewiesene Applikationen können von Sparc profitieren Power: Sehr teuer, hoher Fließkommadurchsatz Hochverfügbarkeitssysteme, Mainframes MIPS: SiCortex Zwei Gründe wieso Nodes mit Festplatten gut sind: Swap File System für Jobs mit hohen Resourcenanforderungen Abbrechen von Jobs in vielen Fällen ohne Swap nicht möglich Scratch File System zum Abspeichern von Zwischenergebnissen 19/86 20/86 Komponenten / Festplatten Komponenten / Grafikkarten Zwei Gründe wieso Nodes mit Festplatten gut sind: Swap File System für Jobs mit hohen Resourcenanforderungen Abbrechen von Jobs in vielen Fällen ohne Swap nicht möglich Scratch File System zum Abspeichern von Zwischenergebnissen Zwei Gründe dagegen: Verbraucht zusätzlich Strom Verschleißteil Prinzipiell überflüssig ABER: nutzbar als Applikationsbeschleuniger Abwägung Kosten vs. Nutzen vs. Programmierbarkeit 20/86 21/86
7 Verbindungsnetze / Zusammenha nge1 Verbindungsnetze / Lo sungen / Gigabit Ethernet Fu r professionelle Anwendung meist zu langsam Granularität (Parallelität) Allerdings fu r unseren Lehrbedarf ausreichend Bietet sich als Adminnetz an (ssh, ganglia, Batchsystem,...) Latenz Bandbreite SETI@home POVRAY LAMMPS, GAMMES, HPCC HPC Netzwerktechnologie erforderlich 1 fu r alle NW Technologien siehe [DAAGeorgi08] 22/86 Verbindungsnetze / Lo sungen / 10GBase Nachfolger des vorherrschenden Ethernet Standards Datenrate: bis 925 MiB/s; Latenz: 16.9µs 25.8µs (Karte: Chelsio S310E-CX, Switch: HP Pro Curve 6400-cl im CX4 Mode) Mit rund 1200 e pro Port (bei 256 Port Installation) noch recht teuer 23/86 Verbindungsnetze / Lo sungen / Infiniband Weit verbreitet ( 30% der Top500) (durch HP Cluster Platform 3000 und IBM xseries x3650 mo glicher Weise noch ho her) Datenrate: bis 955 MiB/s; Latenz: 3.8µs 4.1µs (4x SDR, Hersteller geben weit bessere Werte an [MellnxIBPerf]) Bandbreite bei großen Netzen aufgrund von statischem Routing reduziert[thoeffibr08] 24/86 25/86
8 Verbindungsnetze / Lo sungen / Myrinet Verbindungsnetze / Lo sungen / Quadrics QsNetII Zu 10GBase (protokoll)kompatibel, im MX Mode aber latenzarm Bis 32 Ports volle Crossbar Datenrate: 1185 MiB/s; Latenz: 2.5µs 2.6µs(Karte: 10G-PCIE-8AL-C+MX1; Switch: 10G-SW32LC-16M Line Card) Datenrate: 900 MiB/s; Latenz: 1.4µs (ohne MPI unter 0.5µs siehe [QsNetIIPerf]) Stromsparend[CC08] 26/86 Praktikumssystem I 27/86 Praktikumssystem II Intel Essential Series D945GCLF2 75 e pro Stu ck Fu r professionelle HPC-Anwendung ungeeignet Bringt aber den Vorteil alles ausprobieren zu ko nnen 3 x Sony Playstation 3 mit Cell Broadband Engine Wegen einigen Eigenheiten bei der Administration ebenfalls gutes Lehrsystem Cell Architektur prinzipiell fu r Clusterbau interessant, PS3 aber ungeeignet (Hauptspeicher, Netzwerk) 4 Boards gut als Lehr- und Lernsystem geeignet 28/86 29/86
9 3 Systemsoftware Systemsoftware Regeln / Tipps Datenspeicherung Tools Batchsysteme und Clustersuiten Monitoring Systemsoftware Betriebssystem 30/86 31/86 Betriebssystem I Betriebssystem II Die Qual der Wahl Auswahl des Betriebsystems richtet sich (meist) nach zu verwendender Hardware/Software, nicht umgekehrt! Auf Treibersupport durch den Hersteller achten Wie soll gestartet werden? Entweder: jeder Node hat eigene Festplatte lokale Installation Provisioning bedenken Oder: Booten über Netzwerk mittels bootp 32/86 33/86
10 Betriebssystem III Systemsoftware / Zu Beachten I Linux eignet sich meist hervorragend für Cluster Enterprise Lösungen bieten besseren Support, Treiberunterstützung und Zertifizierung (RHEL, SLES,...) Komplette Softwarekits (z.b. Sun HPC Software) vereinfachen die Installation und Administration Im Praktikum Debian Natürlich sind auch andere Betriebssysteme möglich Teilweise weil nicht anders realisierbar (z.b. Sparc Cluster mit Solaris) Wissenschaftliche OpenSource Anwendungen (WPP, POY, GAMESS,...) HPC problematisch Sowohl Software als auch Hardware homogen gestalten. Je einheitlicher ein Cluster: Desto weniger Aufwand bei Installation, Wartung, Upgrades Desto weniger Probleme mit inkompatiblen Schnittstellen Desto weniger unvorhergesehen Probleme 34/86 35/86 Systemsoftware / Zu Beachten II Systemsoftware / Zu Beachten III Nodes nicht überladen. Je weniger Dienste und Hardware auf dem Node aktiviert sind, desto besser: Nicht benötigte Dienste deaktivieren Nicht benötigte Software deinstallieren Nicht benötigte Features im BIOS deaktivieren Compute-Nodes sind zum Rechnen da! Head-Node ist Eintrittstor und Datensammelpunkt! node-5 ist auch ein Name. Bezeichnungen aus diversen Mythologien sind hinderlich Besser: Node-Namen bestehened aus einem einheitlichen Präfix und einer fortlaufenden Nummer (node1, node2,..., node23,...) Viele Tools profitieren davon, oder haben gar zusätzliche Features die darauf aufsetzen 36/86 37/86
11 Systemsoftware / Zu Beachten IV Systemsoftware / Zu Beachten V Know your enemy. sysctl, getconf und hwinfo sind nützlich Viele Probleme lassen sich im Voraus verhindern Uhrzeit über das ganze System synchron halten. NTP benutzen! Synchron laufende Systemuhren sind unabdingbar! Am besten eigenen NTP-Server auf Head-Node zum Zeitabgleich der Compute-Nodes 38/86 39/86 Systemsoftware / Compiler Ein Wort zu Compilern GCC ist für Linux Systeme unerlässlich Produktivsoftware sollte mit optimalen Compiler für Systemarchitektur kompiliert sein (z.b. ICC für Intel CPUs) Testreihen durchführen (manchmal ist auch gcc besser) Meist kommerzielle Produkte Datenspeicherung 40/86 41/86
12 Datenhaltung über das Cluster I Datenhaltung über das Cluster II Bisher stark vernetzte Rechner mit jeweils eigenem, von einander unabhängigen Dateisystem Binarys, Eingangsdatensätze, etc. müssen auf jedem Node der diese benutzt verfügbar sein Schlechte Lösung: vor jedem Job Dateien per ftp oder scp auf die Nodes kopieren Richtige Lösung: Verzeichnisse die pro Node synchron gehalten sind Verteiltes Dateisystem unabdingbar / /bin /boot /dev /etc /home /lib /mnt /opt /proc /root /sbin /cluster /sys /tmp /usr /var Headnode / NAS System Fileserver- Daemon Node 1 / /bin /boot /dev /etc nfs:///home /lib /mnt /opt /proc /root /sbin nfs:///cluster /sys /tmp /usr /var Node n / /bin /boot /dev /etc nfs:///home /lib /mnt /opt /proc /root /sbin nfs:///cluster /sys /tmp /usr /var 42/86 43/86 Dateisysteme / verteilte Dateisysteme I Dateisysteme / verteilte Dateisysteme II Begriff: verteiltes Dateisystem Ein verteiltes Dateisystem erlaubt den Zugriff auf Dateien eines oder mehrerer entfernter, über ein Rechnernetz verbundener Server. Beachte: Obwohl Clients die verteilten Dateisysteme wie lokale Resourcen benutzen können müssen die Dateien auf dem Server noch auf lokalen Dateisystemen (Ext3, ReiserFS, XFS,... ) vorliegen. Dies ist für die Clients transparent. Man kann 2 Arten unterscheiden: Distributed Filesystems (single source): 1 Server auf dem die Daten liegen Bsp: AFS, NFS, SMB Fehlertolerante: Coda, DFS Distributed Parallel Filesystems (multi source): Mehrere Server halten die Daten Abbildung auf ein gesamtheitliches virtuelles Dateisystem Bsp: Lustre, PVFS Fehlertolerante: Ceph, GFS, GlusterFS 44/86 45/86
13 Tools Tools Verschiedene Arbeiten treten immer wieder auf Nodes müssen bequem von einer Stelle aus administriert werden können Werkzeuge zu kennen verringert Arbeitszeit signifikant (Einarbeitungsaufwand beachten) 46/86 47/86 Tools / Begriff / Distributed Shell Distributed Shell / DSH Erklärung Prinzip: einen Befehl auf mehreren Nodes ausführen Wrapper für rsh/ssh/remsh-kommandos Verringert die Zeit für Konfiguration, Updates usw. Dancer s Shell / Distributed Shell Autor: Junichi Uekawa Unterstützt alle gängigen shells Klein, leicht und handlich Einfache Konfiguration /etc/dsh/dsh.conf /etc/dsh/machines.list /etc/dsh/group/ /86 49/86
14 Distributed Shell / PDSH Tools / Begriff / Environment Modules Parallel Distributed Shell Autor: Jim Garlick Mächtiger als DSH - Profiwerkzeug Modularer Aufbau (dynamisch ladbar) Unterstützt genders Wird im Praktikum benutzt Environment Modules Ermöglicht dynamisches verändern des Linux-Environment Wie der Name schon sagt: modular Äußerst praktisch, auch für Desktop-Systeme Wird im Praktikum benutzt 50/86 51/86 Environment Modules / Beispiel I Environment Modules / Beispiel Beispiel: modules & LD LIBRARY PATH Beispiel: modules & binaries 52/86 53/86
15 Batchsystem / Begriff Batchsysteme und Clustersuiten Batchsystem Softwarelösung zur Stapelverarbeitung (oder Batchverarbeitung) Batchverarbeitung ist die sequentielle, nicht-interaktive Abarbeitung von Aufgaben. Beinhaltet meist: Ressourcenmanager Scheduler Tools für Konfiguration, Management und Diagnose Einfaches Monitoring 54/86 55/86 Batchsystem / PBS Batchsystem / LSF I Portable Batch System Entwickelt in den 1990ern für die NASA Verfügbar als PBSpro und OpenPBS Ausgereift, gut dokumentiert und supportet Lizenz: Eigene Lizenz Nutzung: kommerziell und nicht-kommerziell (openpbs) erlaubt (Registrierung) Weiterverbreitung: nur nicht-kommerziell Modifikation: orginal Quelltext ist mitzuliefern Load Sharing Facility Platform LSF kommerzielles Produkt OS: Unix, Linux und Windows Kommt auch am ZIH zum Einsatz Lizenz: Proprietär 56/86 57/86
16 Batchsystem / LSF II Batchsystem / MOAB cluster suite Befehl: bjobs Befehl: bjobs -a MOAB cluster suite Professionelle Middleware zum Cluster Management Enthält webbasierte und grafische Managment-Tools OS: Linux, Unix, Mac OSX & bebrenzte Windows-Unterstützung Resource Manager: LSF, TORQUE, PBSPro, SGE, SLURM, LoadLeveler, OpenPBS and custom 58/86 59/86 Batchsystem / SLURM Batchsystem / OSCAR Simple Linux Utility for Resource Managment OS: Linux, Unix Einfach, skaliert gut Sehr gut und übersichtlich dokumentiert Wird im Praktikum zum Einsatz kommen Lizenz: GPL Open Source Cluster Application Resources OS: Linux (rpm-basierte) Gedacht für Beowulf-Cluster Beinhaltet viele aufeinander abgestimmte Tools und Bibliotheken Lizenz: GPL 60/86 61/86
17 Monitoring Monitoring Große Menge an Rechnern ohne eigenen Monitor überwachen Übersicht des Systemzustands behalten Idee: grafische Aufarbeitung der Parameter Bei besonderen Zuständen Mails verschicken Nur in Notfällen per Monitor oder seriellen Kabel an die Nodes gehen (BIOS etc.) 62/86 63/86 Monitoring / Ganglia Monitoring / Ganglia Screenshot Ganglia Umfassende Statistiken über alle Nodes im System Sammelt Daten mit Hilfe von Deamon auf jedem Node Visualisierung per Webfrontend Download: Lizenz: UC Berkeley Lizenz copy, modify, use and distribution without fee 64/86 65/86
18 4 Anwendungssoftware / Optimierung Kommunikation parallele Software Optimierung Kommunikation / Internode Nachrichtenaustausch 66/86 67/86 Internode Kommunikation Kommunikation / MPI Bis jetzt: Farm von Rechnern Nur möglich auf jedem Node Programm(e) zu starten Ziel: Mehrere Nodes als ein Rechner zu benutzen Nachrichtenaustausch von Programmteilen auf verschiedenen Nodes über Verbindungsnetz nötig Da kein gemeinsamer Hauptspeicher vorhanden ist müssen Nachrichten explizit versendet/empfangen werden Message Passing Interface Standardisierte Programmierschnittstelle für parallele Programmierung Aktuelle Version des Standards: 2.0 Stellt diverse Kommunikationsroutinen zur Verfügung (send, receive, broadcast,...) Mehrere Prozesse die miteinander über Nachrichten kommunizieren Vertreter: OpenMPI, MPICH1, MPICH2, MVAPICH Verfügbar für C/C++,Fortran, Java, Python 68/86 69/86
19 Begriff / PVM Parallel Virtual Machine Abstraktion verteilter Systeme auf einen virtuellen Parallelrechner aktuelle Version: 3.4 benutzt Daemons die miteinander über Nachrichten kommunizieren verfügbar für C/C++,Fortran, Java, Python, Pearl... parallele Anwendungen 70/86 71/86 parallele Anwendungen parallele Programmierung: Token Ring I Idee der Lastverteilung Resourcenintensive Anwendungen benutzen verteilte Hardware Resourcen: CPUs, Hauptspeicher, persistenter Speicher... Vorteile: Höhere Kapazitäten als in Einzelsystem Gute Skalierbarkeit Erhöhte Redundanz und Ausfallsicherheit 1 # include <stdio.h> 2 # include <mpi.h> 3 4 # define NRING # define TAG int main ( int argc, char * argv []){ 8 int rank, size, next, prev, message ; 9 10 /* start up MPI */ 11 MPI_Init (& argc, & argv ); 12 MPI_Comm_rank ( MPI_COMM_WORLD, & rank ); 13 MPI_Comm_size ( MPI_COMM_WORLD, & size ); /* errechne rank des naechsten prozesses im ring */ 16 next = ( rank + 1) % size ; 17 prev = ( rank + size - 1) % size ; /* rank 0 ist start */ 20 if (0 == rank ) { 21 message = NRING ; 22 MPI_Send (& message, 1, MPI_INT, next, TAG, MPI_COMM_WORLD ); 23 } 72/86 73/86
20 parallele Programmierung: Token Ring II MPI Implementierungen /* sende token immer im ring */ 26 while (1) { 27 MPI_Recv (& message, 1, MPI_INT, prev, TAG, MPI_COMM_WORLD, 28 MPI_STATUS_IGNORE ); if (0 == rank ) -- message ; MPI_Send (& message, 1, MPI_INT, next, TAG, MPI_COMM_WORLD ); if (0 == message ) break ; 35 } /* token als letztes zu rank 0 zurueck */ 38 if (0 == rank ) { 39 MPI_Recv (& message, 1, MPI_INT, prev, TAG, MPI_COMM_WORLD, 40 MPI_STATUS_IGNORE ); 41 } MPI_Finalize (); 44 return 0; 45 } Open MPI OpenSource Standartkonform zu MPI Version 2.0 Unterstützt fast alle Interconnects Wird von TU Chemnitz und ZIH mitentwickelt Ist durch großes Konsortium zukunftssicher Kann deshalb ohne Bedenken benutzt werden 74/86 75/86 Debugging Wissenschaftliche Anwendungen Debugging (Fast) nur kommerziell verfügbar Alinea DDT Totalview Paralleles Debugging ist eine Wissenschaft für sich wissenschaftliche Anwedungen GAMESS ( GROMACS ( OpenFOAM ( POP ( POV-Ray ( POY ( RAxML ( WPP ( und viele mehr 76/86 77/86
21 Optimierung / Analyse Optimierung Profiling Tracing gprof Für jeden MPI Prozess ein Output Zählt Funktionsaufrufe und darin verbliebene Zeit Vampirtrace Standalone oder im Open MPI Führt Aktionen aller Prozesse zu einem Ergebniss zusammen Braucht Anzeigeprogramm um Ergebnisse zu Visualisieren (Vampir) Lizenz: GPL Mittlerweile der Standard für Tracing paralleler Anwendungen Wird am ZIH entwickelt Unterstützt PAPI Counter Scalasca Intel Thread Analyser 78/86 79/86 Optimierung/ Vampir I Optimierung / Vampir II 80/86 81/86
22 Analyse / Benchmarking Literatur I BenchIT Performance Meassurement for Scientific Applications. Als OpenSource verfügbar unter [DAAndyG08] Andy Georgi Diplomarbeit: Untersuchung ausgewählter Netzwerk-Technologien TU Dresden / ZIH 2008 [TaschInf] Uwe Schneider, Dieter Werner Taschenbuch der Informatik Fachbuchverlag Leipzig ISBN [BlueGen] Blue Gene Website pages/bluegene.index.html 82/86 83/86 Literatur II Literatur III [THoeffIBR08] T. Hoefler and T. Schneider and A. Lumsdaine Multistage Switches are not Crossbars: Effects of Static Routing in High-Performance Networks Proceedings of the 2008 IEEE International Conference on Cluster Computing ISBN [ZIHPubl] Diplomarbeiten, PhD Thesis, Studienarbeiten am ZIH [Myri10GE] [MellnxIBPerf] http: //mellanox.com/content/pages.php?pg=performance_infiniband [CC08] Cluster Challenge 08: Optimizing Cluster Configuration and Applications to Maximize Power Efficiency J. Müller, T. Schneider, J. Domke, R. Geyer, M. Häsing, T. Hoefler, St. Höhlig, G. Juckeland, A. Lumsdaine, M. S. Müller, W. E. Nagel In Linux Cluster Institute Conference, 2009 [HennPattQA4] John L. Hennessy, David A. Patterson Computer Architecture, Fourth Edition: A Quantitative Approach Morgan Kaufmann 2006 ISBN [QsNetIIPerf] QsNetII Performance Results 84/86 85/86
23 Literatur IV [THoeffIC09] T. Hoefler and T. Schneider and A. Lumsdaine A Power-Aware, Application-Based, Performance Study Of Modern Commodity Cluster Interconnection Networks Proceedings of the 23rd IEEE International Parallel & Distributed Processing Symposium (IPDPS), CAC Workshop 86/86
Cluster Computing & OpenSource
Center for Information Services and High Performance Computing (ZIH) Cluster Computing & OpenSource Ein Überblick 15. März 2009 Nöthnitzer Straße 46 01187 Dresden INF 1038 +49 351-463 38781 Robin Geyer,
MehrLinux Cluster in Theorie und Praxis
Zentrum für Informationsdienste und Hochleistungsrechnen TU Dresden Linux Cluster in Theorie und Praxis Cluster Computing Einführung Thomas William 16. Oktober 2014 WIL A35 Zellescher Weg 12 01069 Dresden
MehrTrend der letzten Jahre in der Parallelrechentechnik
4.1 Einführung Trend der letzten 10-15 Jahre in der Parallelrechentechnik weg von den spezialisierten Superrechner-Plattformen hin zu kostengünstigeren Allzwecksystemen, die aus lose gekoppelten einzelnen
MehrEinführung in Betriebssysteme UNIX AM BEISPIEL LINUX
Einführung in Betriebssysteme UNIX AM BEISPIEL LINUX 23 UNIX entwickelt Anfang der 1970er Jahre von Ken Thompson und Dennis Ritchie (Bell Laboratories) Quelle: Wikipedia Zusammen und auf der Basis von
MehrLinux Cluster in Theorie und Praxis
Foliensatz Center for Information Services and High Performance Computing (ZIH) Linux Cluster in Theorie und Praxis Betriebssysteme 19.10.2009 Verfügbarkeit der Folien Vorlesungswebsite: http://tu-dresden.de/die_tu_dresden/zentrale_einrichtungen/
MehrCHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm
CHiC er Hochleistungs-Linux Cluster Stand HPC Cluster CHiC, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität
MehrAusblick auf den HLRN III - die neue HPC Ressource für Norddeutschland
Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 14. März 2013
MehrVorlesung: Virtualisierung und Rechenzentrumsinfrastrukturen. Lars Göbel & Christian Müller VL04: Einführung in die Virtualisierung
Vorlesung: Lars Göbel & Christian Müller VL04: Einführung in die Virtualisierung Themenüberblick Virtualisierung VL 02: Einführung in die Virtualisierung (heute) VL 06: VL 08: XaaS VL 09: PaaS + SaaS VL
MehrFreiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel
Freiberuflicher Schwerpunkte: Unix, Oracle, Netzwerk 2005 1 Testaufbauten von Oracle 10g RAC auf preiswerter Hardware 2 3 Typisches Cluster System Clients Public Network Node A Node B Cluster Interconnect
MehrODA Erfahrungen und Neuigkeiten
ODA Erfahrungen und Neuigkeiten Dierk Lenz 25. Oktober 2017 Köln Oracle Database Appliance (ODA) Mitglied der Familie der Oracle Engineered Systems, d.h.: Hardware und Software (Betriebssystem, Datenbank)
MehrErfahrungsbericht, Konsolidierung und Administration Real Application Cluster
Erfahrungsbericht, Konsolidierung und Administration Real Application Cluster Themen Über mich Projekt RAC bei Heine Probleme Resultate Fragen 2 Über mich virtual7 GmbH Jürgen Bouché Zeppelinstraße 2 76185
MehrExkurs: Paralleles Rechnen
Münster Exkurs: Paralleles Rechnen Münster Exkurs: Paralleles Rechnen 2 /21 Konzepte für Parallelrechner P P P C C C Gemeinsamer Speicher Verteilter Speicher Verbindungsnetzwerk Speicher M, Münster Exkurs:
MehrThe linux container engine. Peter Daum
0 The linux container engine Peter Daum Über mich Peter Daum Entwickler seit 13 Jahren Java Developer @ tyntec Java EE / Spring im OSS / BSS Twitter - @MrPaeddah Blog - www.coders-kitchen.com Agenda Docker?!
MehrHLRN III - HPC Ressource für Norddeutschland
HLRN III - HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 23. September 2014 Inhalt Der HLRN Verbund
MehrUBELIX University of Bern Linux Cluster
University of Bern Linux Cluster Informatikdienste Universität Bern ID BEKO Grid Forum 7. Mai 2007 Inhalt Einführung Ausbau 06/07 Hardware Software Benutzung Dokumentation Gut zu wissen Kontakt Apple/Mac:
MehrLINUX Schulung. FrauenComputerZentrum Berlin. Jutta Horstmann, Mai 2006
LINUX Schulung FrauenComputerZentrum Berlin Jutta Horstmann, Mai 2006 Agenda Was ist Linux Was ist Open Source Warum Open Source Software Wie sieht Open Source Software aus Was kann man damit machen Ausprobieren!!
MehrM5000 einfach ablösen durch T4/T5 LDoms und Solaris Zonen
M5000 einfach ablösen durch T4/T5 LDoms und Solaris Zonen Marcel Hofstetter JomaSoft GmbH St. Gallen / Schweiz Schlüsselworte M5000, T4, T5, LDoms, Oracle Solaris 11, Solaris Zonen, VDCF Einleitung Die
MehrHochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen
Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem hristian Terboven Rechen- und Kommunikationszentrum RWTH Aachen 1 Hochleistungsrechnen mit Windows enter omputing and ommunication
MehrErste Erfahrungen mit Installation und Betrieb
Erste Erfahrungen mit Installation und Betrieb von OpenHPC 14.10.2016 Holger Angenent Röntgenstr. 7-13, 48149 Münster 2 > Problemstellung Jeder neue Cluster kam bisher mit neuem Clustermanagement Einarbeitungszeit
MehrDiskless Cluster und Lustre Erfahrungsbericht zum CHiC
Diskless Cluster und Lustre Erfahrungsbericht zum CHiC, Torsten Hoefler, Torsten Mehlan und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität
MehrOracle Database Appliance und Virtualisierung: OVM oder KVM?
Oracle Database Appliance und Virtualisierung: OVM oder KVM? Dierk Lenz DOAG Day Datenbank in virtualisierten Umgebungen Hannover 7. März 2018 Herrmann & Lenz Services GmbH Herrmann & Lenz Solutions GmbH
Mehrein verteiltes und repliziertes Dateisystem XtreemOS IP project is funded by the European Commission under contract IST-FP6-033576
ein verteiltes und repliziertes Dateisystem is funded by the European Commission XtreemOS IPunder project contract IST-FP6-033576 1 Das XtreemOS Projekt Europäisches Forschungsprojekt gefördert von der
MehrIntern: Ceph Kurzeinführung in die verteile Storage-Lösung
Intern: Ceph Kurzeinführung in die verteile Storage-Lösung Dominik Vallendor 29.05.2017 Tralios IT GmbH www.tralios.de Motivation Lokale Speicher sind unflexibel, selbst mit Redundanzlösungen (bsp. DRBD)
MehrWindows HPC Server 2008 aus der Betreiberperspektive
Windows HPC Server 2008 aus der Betreiberperspektive Michael Wirtz wirtz@rz.rwth aachen.de Rechen und Kommunikationszentrum RWTH Aachen WinHPC User Group Meeting 2009 30./31. März 09, Dresden Agenda o
MehrLinux System Administration Inhouse Training
Zielgruppe: IT-Engineers mit Linux-Grundkenntnissen Dauer: 4 Tage Abstract: In diesem Training steht die Praxis im Vordergrund: Die Teilnehmer lernen, wie sich Linux-Systeme mit den drei großen Linux-Distributoren
MehrPrivate Cloud mit Eucalyptus am SCC
Private Cloud mit Eucalyptus am SCC Christian Baun 15. Dezember 2009 KIT The cooperation of Forschungszentrum Karlsruhe GmbH und Universität Karlsruhe (TH) http://www.kit.edu Cloud-Comuting = Grid-Computing?!
MehrComputer & GNU/Linux Einführung Teil 1
Inst. für Informatik [IFI] Computer & GNU/Linux EinführungTeil 1 Simon Haller, Sebastian Stab 1/17 Computer & GNU/Linux Einführung Teil 1 Simon Haller, Sebastian Stabinger, Philipp Zech Inst. für Informatik
Mehr08.05.2012 UNIX. Linux. UNIX Derivate, die wichtigsten. Free BSD (Open) Solaris MacOS X Linux. UNIX Dateisystem, wichtige Ordner.
23 UNIX Einführung in Betriebssysteme UNIX AM BEISPIEL LINUX entwickelt Anfang der 1970er Jahre von Ken Thompson und Dennis Ritchie (Bell Laboratories) Quelle: Wikipedia Zusammen und auf der Basis von
MehrLinux Cluster in Theorie und Praxis
Foliensatz Center for Information Services and High Performance Computing (ZIH) Linux Cluster in Theorie und Praxis Monitoring 30. November 2009 Verfügbarkeit der Folien Vorlesungswebseite: http://tu-dresden.de/die_tu_dresden/zentrale_einrichtungen/
MehrPVFS (Parallel Virtual File System)
Management grosser Datenmengen PVFS (Parallel Virtual File System) Thorsten Schütt thorsten.schuett@zib.de Management grosser Datenmengen p.1/?? Inhalt Einführung in verteilte Dateisysteme Architektur
MehrÜbung zu Grundlagen der Betriebssysteme. 3. Übung 30.10.2012
Übung zu Grundlagen der Betriebssysteme 3. Übung 30.10.2012 Aufgabe 1 Schließen Sie sich über die URL http://userpages.uni-koblenz.de/~mips/bs/anmeldung/ Bearbeitungsgruppen bestehend aus 3 Teilnehmern
MehrPatagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre
Patagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre Felix Rauch Christian Kurmann, Blanca Maria Müller-Lagunez, Thomas M. Stricker Institut für Computersysteme ETH Zürich Eidgenössische Technische
MehrBernd Bleßmann, Jörg Bleßmann. Linux. Aufbau und Einsatz eines Betriebssystems. 1. Auflage. HLuHB Darmstadt. Bestellnummer Bildungsverlag EINS
Bernd Bleßmann, Jörg Bleßmann Linux Aufbau und Einsatz eines Betriebssystems 1. Auflage Bestellnummer 01146 HLuHB Darmstadt 15917903 Bildungsverlag EINS Vorwort 7 1 Betriebssysteme 9 1.1 Die Aufgaben des
MehrSysteme I: Betriebssysteme Kapitel 2 Überblick Betriebssysteme. Maren Bennewitz
Systeme I: Betriebssysteme Kapitel 2 Überblick Betriebssysteme Maren Bennewitz 1 Überblick Betriebssysteme Aufgabe von Betriebssystemen Historische Entwicklung von Betriebssystemen Unterschiedliche Arten
MehrSingularity - Container für die HPC Welt. Egbert Eich Project Manager HPC SUSE Linux
Singularity - Container für die HPC Welt Egbert Eich Project Manager HPC SUSE Linux GmbH/eich@suse.com Über mich UNIX Betriebssysteme seit 1991 (AIX, Digital UNIX, ) Seit 25 Jahren Linux Seit 2000 bei
MehrProgrammierung und Leistungsanalyse des bwgrid-clusters. Dr. Heinz Kredel und Dr. Hans-Günther Kruse
Programmierung und Leistungsanalyse des bwgrid-clusters Dr. Heinz Kredel und Dr. Hans-Günther Kruse Inhalt bwgrid Cluster Programmierung Threads, OpenMP, Kommunikation, OpenMPI, Strategien Leistungsanalyse
MehrSupercomputing 2003: Nichts geht ohne Linux
DECUS Symposium 2003 Supercomputing 2003: Nichts geht ohne Linux presented by Roland Fehrenbacher transtec AG Decus Symposium 2003 1 THE EUROPEAN IT FACTORY Übersicht! Linux Beowulf Cluster Ein neuer Standard
MehrDie Wartung und Betreuung folgender Software-Applikationen ist bei der Variante Managed inkludiert:
... 3... 3... 3... 3... 3... 3... 4... 4... 4... 4... 5... 5 Seite 2 von 5 Gegenstand dieser Leistungsbeschreibung sind die Dienstleistungen von Tele2 Telecommunication GmbH im Rahmen des Services Tele2
MehrHigh Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO
High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO Anastasios Stomas SFI Technology Services AG 12. März 2003 anastasios.stomas@sfi.ch Seite 1 Hintergrund INHALT Cluster-
MehrVerteilte Betriebssysteme
Verteiltes System Eine Sammlung unabhängiger Rechner, die dem Benutzer den Eindruck vermitteln, es handle sich um ein einziges System. Verteiltes Betriebssystem Betriebssystem für verteilte Systeme Verwaltet
MehrFoliensatz. Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen
Foliensatz Center for Information Services and High Performance Computing (ZIH) Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen Hochgeschwindigkeitskommunikationen 13. Juli
Mehrscience + computing ag
science + computing ag Evaluation der Integration von Windows HPC in eine bestehende Berechnungsumgebung Harry Schlagenhauf science + computing ag IT-Dienstleistungen und Software für anspruchsvolle Rechnernetze
MehrLDom Performance optimieren
LDom Performance optimieren Marcel Hofstetter JomaSoft GmbH St. Gallen / Schweiz Schlüsselworte Virtualisierung, SPARC, T4, T5, LDom, Oracle VM Server for SPARC, VDCF Einleitung Die aktuellen Oracle SPARC
MehrMotivation Cluster? H/W+Architektur Cluster Netzwerke OpenSource Cluster Demonstration Quellen. Cluster Netzwerke. Robert Hilbrich
Motivation Cluster? H/W+Architektur OpenSource Cluster Demonstration Quellen Fakultät für Informatik Humboldt Universität Berlin 21. Juli 2006 Motivation Cluster? H/W+Architektur OpenSource Cluster Demonstration
MehrInhaltsübersicht. Vorwort I Installation RAID- und LVM-Grundlagen Ubuntu-Server-Installation Erste Schritte...
Inhaltsübersicht Vorwort... 13 I Installation... 15 1 RAID- und LVM-Grundlagen... 17 2 Ubuntu-Server-Installation... 37 3 Erste Schritte... 57 II Administration... 63 4 Systemkonfiguration... 65 5 Systemstart
MehrProjektseminar Parallele Programmierung
HTW Dresden WS 2014/2015 Organisatorisches Praktikum, 4 SWS Do. 15:00-18:20 Uhr, Z136c, 2 Doppelstunden o.g. Termin ist als Treffpunkt zu verstehen Labore Z 136c / Z 355 sind Montag und Donnerstag 15:00-18:20
MehrDOAG Konferenz 2007 in Nürnberg
DOAG Konferenz 2007 in Nürnberg Auswahl und Sizing: Die richtige Hardware (+Software) für Oracle Björn Bröhl Projektmanager Handlungsbevollmächtigter Seite 1 Inhalt Die Zielsetzung Vorgehensweise Auswahl
MehrZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf
ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012 Scientific Computing in Düsseldorf Peter Schreiber schreiber@hhu.de 0211-81-13913 http://www.zim.hhu.de ZKI Arbeitskreis Supercomputing 20.-21.09.2012
MehrProdukte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT
Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Folie 1 VDE-Symposium 2013 BV Thüringen und Dresden Virtualisierung von Leittechnikkomponenten Andreas Gorbauch PSIEnergie-EE Folie
MehrIst nur Appliance ODA schon Rechenzentrum in der Kiste?
Best Systeme GmbH Datacenter Solutions Ist nur Appliance ODA schon Rechenzentrum in der Kiste? best Systeme GmbH BOSD 2016 Datenbank Virtualisierung Wieso virtualisieren? Ressourcen optimieren! CPU Auslastung
MehrNode.js Einführung Manuel Hart
Node.js Einführung Manuel Hart Seite 1 Inhalt 1. Node.js - Grundlagen 2. Serverseitiges JavaScript 3. Express.js 4. Websockets 5. Kleines Projekt Seite 2 1. Node.js Grundlagen Node.js is a JavaScript runtime
MehrMulti- und Many-Core
Multi- und Many-Core Benjamin Warnke Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg 2016-12-15 Benjamin
MehrDateisystem 1, Suchpfad, Befehlstypen
Dateisystem 1, Suchpfad, Befehlstypen Linux-Kurs der Unix-AG Andreas Teuchert 3. Dezember 2012 Was ist ein Dateisystem? Verwaltung von Dateien auf Datenträgern Beispiele: EXT3, EXT4, FAT, NTFS Baumstruktur
MehrAutomatisierte Serververwaltung mit Hilfe von Puppet
Automatisierte Serververwaltung mit Hilfe von Puppet Linuxinformationstage Oldenburg Rene Laakmann 1 Fahrplan Vorstellung bytemine Configuration Management Nodes Definition Rezepte
MehrFlexFrame for Oracle. Torsten Schlautmann OPITZ CONSULTING Gummersbach GmbH
Torsten Schlautmann torsten.schlautmann@opitz-consulting.de OPITZ CONSULTING Gummersbach GmbH +49 2261 6001-1175 Agenda Funktionsweise Einsatzszenarien Rahmenbedingungen Zusammenfassung Fragen und Antworten
MehrFluent auf Windows HPC Server 2008. ict ag - Mit uns können Sie rechnen
Fluent auf Windows HPC Server 2008 ict ag - Mit uns können Sie rechnen Historie der ict AG Die ict (information communication technology) AG mit Sitz in Aachen, wurde im Jahre 1985 gegründet und übernimmt
Mehrbw-grid Cluster in Mannheim
bw-grid Cluster in Mannheim Dr. Heinz Kredel mit Helmut Fränznick, Rudi Müller, Steffen Hau, Andreas Baust Inhalt Grid und D-Grid BMBF Projekt bw-grid Cluster Stand: Aufbau und Inbetriebnahme Benutzung
MehrOracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen
DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension
Mehr2. Der ParaNut-Prozessor "Parallel and more than just another CPU core"
2. Der ParaNut-Prozessor "Parallel and more than just another CPU core" Neuer, konfigurierbarer Prozessor Parallelität auf Daten- (SIMD) und Thread-Ebene Hohe Skalierbarkeit mit einer Architektur neues
MehrHochleistungs-Disk-I/O
Hochleistungs-Disk-I/O mit Lustre, dcache und AFS eine vergleichende Betrachtung Stephan Wiesand DESY DV 33. Treffen des ZKI AK Supercomputing Hamburg, 2010-03-04 Computing am DESY Standort Zeuthen Batch
MehrFachhochschule Frankfurt am Main Fachbereich 2: Informatik WS 2008/2009. Grundkurs Unix. Teil 1: Die Essenz von UNIX. Dr.
Fachhochschule Frankfurt am Main Fachbereich 2: Informatik WS 2008/2009 Grundkurs Unix Teil 1: Die Essenz von UNIX Dr. Erwin Hoffmann E-Mail: unix@fehcom.de https://www.fehcom.net/unix/ Dr. Erwin Hoffmann:
MehrBetriebssystemschichten (11.03.2011)
Proseminar Speicher- und Dateisysteme (11.03.2011) Bernd Ihnen Übersicht 2/20 Einleitung Betriebssysteme/ Übersicht Mikrokernel Monolithischer Kernel Vergleich der Kernel Fallbeispiel Linux Kernelaufbau
MehrSystemvoraussetzungen für ConSol*CM Version 6.10.2 Architektur Überblick
Systemvoraussetzungen für ConSol*CM Version 6.10.2 Architektur Überblick ConSol*CM basiert auf einer Java EE Web-Architektur, bestehend aus den folgenden Kern-Komponenten: JEE Application Server für die
MehrEnterprise Portal - Abbildung von Prozessen, SAP-Datenintegration und mobile Apps
Beschreibung Die führende Standard-Software, um Menschen und Informationen erfolgreich in Prozesse einzubinden. Intrexx Professional ist eine besonders einfach zu bedienende Software- Suite für die Erstellung
MehrRed Hat Cluster Suite
Red Hat Cluster Suite Building high-available Applications Thomas Grazer Linuxtage 2008 Outline 1 Clusterarten 2 3 Architektur Konfiguration 4 Clusterarten Was ist eigentlich ein Cluster? Wozu braucht
MehrFileserver mit OSL Storage Cluster Hochverfügbare NFS und Samba Server in heterogenen Netzwerkumgebungen. 11.10.2007 Christian Schmidt
Fileserver mit OSL Storage Cluster Hochverfügbare NFS und Samba Server in heterogenen Netzwerkumgebungen 11.10.2007 Christian Schmidt Agenda Ausgangssituation am Beispiel der IBB Einführung in NFS und
MehrOpen Source Data Center Virtualisierung mit OpenNebula. 22.05.2013 LinuxTag Berlin. Bernd Erk www.netways.de
Open Source Data Center Virtualisierung mit OpenNebula 22.05.2013 LinuxTag Berlin Bernd Erk VORSTELLUNG NETWAYS NETWAYS! Firmengründung 1995! GmbH seit 2001! Open Source seit 1997! 38 Mitarbeiter! Spezialisierung
MehrTopics & Trends. SLAC + MS: Implementation des Passwortaustauschs zwischen (Heimdal-) Kerberos und Active Directory
Topics & Trends Kerberos 5 SLAC + MS: Implementation des Passwortaustauschs zwischen (Heimdal-) Kerberos und Active Directory Optional Single Sign-On möglich Migration nach Exchange 2003 (CERN, SLAC, PSI,
MehrOpen Source Data Center Virtualisierung mit OpenNebula. 05.03.2013 CeBIT 2013. Bernd Erk www.netways.de
Open Source Data Center Virtualisierung mit OpenNebula 05.03.2013 CeBIT 2013 Bernd Erk VORSTELLUNG NETWAYS NETWAYS! Firmengründung 1995! GmbH seit 2001! Open Source seit 1997! 35 Mitarbeiter! Spezialisierung
MehrProtected User-Level DMA in SCI Shared Memory Umgebungen
Protected User-Level DMA in SCI Shared Memory Umgebungen Mario Trams University of Technology Chemnitz, Chair of Computer Architecture 6. Halle Chemnitz Seminar zu Parallelverarbeitung und Programmiersprachen
MehrClustering mit Shared Storage. Ing. Peter-Paul Witta paul.witta@cubit.at
Clustering mit Shared Storage Ing. Peter-Paul Witta paul.witta@cubit.at Clustering mehrere kleine Rechner leisten gemeinsam Grosses günstige dual intel/amd Server load sharing High Availability combined
MehrSysteme I: Betriebssysteme Kapitel 2 Überblick Betriebssysteme. Wolfram Burgard
Systeme I: Betriebssysteme Kapitel 2 Überblick Betriebssysteme Wolfram Burgard 1 Überblick Betriebssysteme Aufgabe von Betriebssystemen Historische Entwicklung von Betriebssystemen Unterschiedliche Arten
MehrMarketing Update. Enabler / ENABLER aqua / Maestro II
Marketing Update Enabler / ENABLER aqua / Maestro II Quartal 01/2012 1 Kommentar des Herausgebers Liebe Kunden und Partner, dieser Marketing Update gibt Ihnen einen kurzen Überblick über die aktuell verfügbaren
MehrModernes IT Monitoring/Management
Modernes IT Monitoring/Management Inhalt 3 IT-Monitoring früher? Oder vielleicht auch noch heute? Monitoren - was heisst das? Ganzheitliches Monitoren Herausforderungen, Aufgaben, Funktionen des übergreifenden
MehrPraktikum: Paralleles Programmieren für Geowissenschaftler
Praktikum: Paralleles Programmieren für Geowissenschaftler Prof. Thomas Ludwig, Hermann Lenhart, Nathanael Hübbe hermann.lenhart@zmaw.de MPI Einführung I: Hardware Voraussetzung zur Parallelen Programmierung
MehrHigh Performance Computing mit Windows HPC Server 2008 R2
High Performance Computing mit Windows HPC Server 2008 R2 Steffen Krause Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/steffenk Haftungsausschluss Microsoft kann für die Richtigkeit
MehrMPI-Programmierung unter Windows mit MPICH2. Installieren von MPICH2, Übersetzen, Ausführen und Debuggen von MPI-Programmen. Christian Terboven
MPI-Programmierung unter Windows mit MPIH2 Installieren von MPIH2, Übersetzen, Ausführen und Debuggen von MPI-Programmen hristian Terboven Rechen- und Kommunikationszentrum RWTH Aachen 1 02/2007 luster-installationsworkshop
MehrComputing @ GSI. Walter Schoen, GSI
Computing @ GSI LINUX @ GSI, overview Migration of services growing of the LINUX Batch farm Migration Windows Desktops > XP security: new firewall configuration statefull routing GSI free WLAN DMZ Walter
MehrSystemanforderungen Verlage & Akzidenzdruck
OneVision Software AG Inhalt Asura 10, Asura Pro 10, Garda 10...2 PlugBALANCEin 10, PlugCROPin 10, PlugFITin 10, PlugRECOMPOSEin10, PlugSPOTin 10,...2 PlugTEXTin 10, PlugINKSAVEin 10, PlugWEBin 10...2
MehrDer neue Hessische Hochleistungsrechner HHLR
Der neue Hessische Hochleistungsrechner HHLR Erste Erfahrungen Norbert Conrad, conrad@hrz.tu-darmstadt.de ZKIHessen 26.8.2002 1 Darmstädter Hochleistungsrechner 1987: IBM 3090 VF ( 2 x 0,12 GFLOPS Vektor
MehrÜberblick. HP Beowulf Cluster. Beowulf: Ursprung und Geschichte High Performance Computing (HPC) Einsatzgebiete Aufbau Software 4/7/2005 HP
HP Beowulf Cluster Hanul Sieger, HP 2003 Hewlett-Packard Development Company, L.P. The information contained herein is subject to change without notice Überblick Beowulf: Ursprung und Geschichte High Performance
MehrSystemanforderungen Verlage & Akzidenzdruck
OneVision Software AG Inhalt Asura 9.6, Asura Pro 9.6, Garda 5.6...2 PlugBALANCEin 6.6, PlugCROPin 6.6, PlugFITin 6.6, PlugRECOMPOSEin 6.6, PlugSPOTin 6.6,...2 PlugTEXTin 6.6, PlugINKSAVEin 6.6, PlugWEBin
MehrAnwendung Rechnernetze. 7.Semester INF - WS 2005/2006 Vorstellung der Projekte (Prof. Dr. Uwe Heuert)
Anwendung Rechnernetze 7.Semester INF - WS 2005/2006 Vorstellung der Projekte (Prof. Dr. Uwe Heuert) Übersicht Schwerpunkte Netzwerk Microsoft.NET Dienste und Enterprise Computing Sicherheit Praktikum
MehrSystemanforderungen Verlage & Akzidenzdruck
OneVision Software AG Inhalt Asura 9.5, Asura Pro 9.5, Garda 5.0...2 PlugBALANCEin 6.5, PlugCROPin 6.5, PlugFITin 6.5, PlugRECOMPOSEin 6.5, PlugSPOTin 6.5,...2 PlugTEXTin 6.5, PlugINKSAVEin 6.5, PlugWEBin
MehrVorlesung: Virtualisierung und Rechenzentrumsinfrastrukturen. Lars Göbel & Christian Müller VL02: Einführung in die Virtualisierung
Vorlesung: Lars Göbel & Christian Müller VL02: Einführung in die Virtualisierung VL02: Einführung in die Virtualisierung Agenda 1. Über mich 2. Überblick Themenblock Virtualisierung 3. Idee - Virtualisierung
MehrSAFE HARBOR STATEMENT
SAFE HARBOR STATEMENT The following is intended to outline our general product direction. It is intended for information purposes only, and may not be incorporated into any contract. It is not a commitment
MehrVirtualisierung auf Mac OS X. Mar3n Bokämper Max Riegel 30. November 2008
Virtualisierung auf Mac OS X Mar3n Bokämper Max Riegel 30. November 2008 Inhalt Virtualisierung Konfigura3on eines virtuellen Rechners Virtualisierungslösungen für OS X Apple Boot Camp, keine Virtualisierungslösung!
MehrStorage as a Service - STaaS
Storage as a Service - STaaS OpenStack Storage der Zukunft Alte Storage Konzepte Alte Storage Konzepte Zentraler Storage Auf Fat-Clients optimiert Statisch definiert Synchroner Abgleich Meist auf NAS und
MehrVMware als virtuelle Plattform
VMware als virtuelle Plattform Andreas Heinemann aheine@gkec.informatik.tu-darmstadt.de Telekooperation Fachbereich Informatik Technische Universität Darmstadt Übersicht Einführung VMware / Produkte /
Mehrbest Systeme GmbH Michael Beeck Geschäftsführer, CTO Michael.Beeck@best.de best Systeme GmbH
best Systeme GmbH Michael Beeck Geschäftsführer, CTO Michael.Beeck@best.de best Systeme GmbH Münchner Str. 123a 85774 Unterföhring Tel: 089/950 60 80 Fax: 089/950 60 70 Web: www.best.de best Systeme GmbH
MehrEntwicklung eines COW auf Basis einer SGE
Entwicklung eines COW auf Basis einer SGE B. Sc. Michael Schmidt HTWK Leipzig 14. Juni 2011 Inhalt 1 Einführung 2 Masterarbeit 3 Schluss Überblick 1 Einführung 2 Masterarbeit 3 Schluss Definition Cluster
MehrVirtualisierung: Neues aus 2010 und Trends 2011
Virtualisierung: Neues aus 2010 und Trends 2011 Werner Fischer, Technology Specialist Thomas-Krenn.AG Thomas Krenn Herbstworkshop 2010 Freyung, 24. September 2010 Agenda 1) Virtualisierungs-Software VMware
MehrVirtuelle Entwicklungsarbeitsplätze und Linux
Virtuelle Entwicklungsarbeitsplätze und Linux Peter Pfläging Stadt Wien MA 14 - Rechenzentrum Agenda Daten der MA 14 als Softwarehaus und Rechenzentrum Ausgangsituation in der Entwicklung
MehrThe Unbreakable Database System
The Unbreakable Database System Real Application Cluster Unterföhring, 04.2005 M. Kühn 1 Comparisson HA - HA Ziele, DataGuard, HA Oracle, RAC RAC Features - Cache Fusion, TAF, Load Balancing RAC on Solaris
MehrSystemanforderungen Verlage & Akzidenzdruck
OneVision Software AG Inhalt Asura 10.2, Asura Pro 10.2,Garda 10.2...2 PlugBALANCEin 10.2, PlugCROPin 10.2, PlugFITin 10.2, PlugRECOMPOSEin 10.2, PlugSPOTin 10.2,...2 PlugTEXTin 10.2, PlugINKSAVEin 10.2,
MehrVMware. Rainer Sennwitz. <Rainer.Sennwitz@andariel.informatik.uni-erlangen.de>
VMware Rainer Sennwitz Lehrstuhl für Informatik IV Friedrich-Alexander-Universität Erlangen-Nürnberg 4. Juli 2007 Rainer Sennwitz VMware Inhalt Inhalt
MehrNeues in Hyper-V Version 2
Michael Korp Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/mkorp Neues in Hyper-V Version 2 - Virtualisieren auf die moderne Art - Windows Server 2008 R2 Hyper-V Robust Basis:
MehrDienstleistungen Abteilung Systemdienste
Dienstleistungen Abteilung Systemdienste Betrieb zentraler Rechenanlagen Speicherdienste Systembetreuung im Auftrag (SLA) 2 HP Superdome Systeme Shared Memory Itanium2 (1.5 GHz) - 64 CPUs, 128 GB RAM -
MehrEXPERTS IN DATA STORAGE
EXPERTS IN DATA STORAGE Schnelle Systemwiederherstellung mit Cristie Was ist TBMR? TBMR bietet eine nahtlose TSM-Integration und ermöglicht die Wiederherstellung von Servern auf gleiche und geänderter
Mehr