High Performance Computing
|
|
|
- Michaela Auttenberg
- vor 8 Jahren
- Abrufe
Transkript
1 REGIONALES RECHENZENTRUM ERLANGEN [RRZE] High Performance Computing Systemausbildung Grundlagen und Aspekte von Betriebssystemen und systemnahen Diensten, HPC-Gruppe, RRZE
2 Agenda Was bedeutet HPC? Aus welchen Komponenten besteht ein typisches HPC- System? Mit dem HPC-System läuft $GTA5/$Photoshop/$Videoschnittprogramm doch superschnell, oder? Shared-Memory-Parallelisierung vs. Message Passing Was ist dieses Queuing-System und wozu ist es gut? 3
3 Was bedeutet HPC? Englisch: High Performance Computing Deutsch: Hochleistungsrechnen Hochleistungsrechnen ist ein Bereich des computergestützten Rechnens. Er umfasst alle Rechenarbeiten, deren Bearbeitung einer hohen Rechenleistung oder Speicherkapazität bedarf. (Wikipedia) genaue Abgrenzung ist schwierig 4
4 Einsatzbereiche von HPC-Systemen (Beispiele) Ingenieurwesen (Automotive) Crashsimulation Aerodynamik Akustik Meteorologie Wettervorhersage Katastrophenvorhersage Biologie/Medizin Drug Design Aufklärung von Reaktionsprozessen 5
5 Einsatzbereiche von HPC-Systemen (Beispiele) Werkstoffwissenschaften Physik Aufklärung von fundamentalen Wechselwirkungen Struktur der Materie Filmindustrie Rendering CGI Zunehmend auch außerhalb der klassischen Natur-/Ingenieurswissenschaften, z.b. in Wirtschafts- oder Sprachwissenschaften 6
6 Ein Wort zur Warnung Fricke / Lehmann: Der Rechenschieber VEB Fachbuchverlag Leipzig Auflage s/rechenschieber/supercomputer/g s/kopfrechnen/common Sense/g 7
7 HPC-Systeme Hochleistungsrechner sind Rechnersysteme, die geeignet sind, Aufgaben des Hochleistungsrechnens zu bearbeiten. Früher: Spezialsysteme Spezialhardware + -software Heute: Fast ausschließlich Cluster aus Standard-Hardware, meist mit schnellem Interconnect (Netzwerk) Die einzelnen Clusterknoten sind nicht schneller als ein gut ausgestatteter Standardserver! Vektorrechner: Nischenprodukt 8
8 Beispiel: SuperMUC Phase 1 LRZ 9216 compute nodes 2x Intel Xeon E CPU (8 Kerne, 2.7 GHz, Sandy Bridge ) 32 GB RAM Ergibt in Summe Kerne und 288 TB RAM Infiniband-Netz 18 Inseln a 512 Knoten Fully non-blocking innerhalb der Inseln ausgedünnt 4:1 zwischen den Inseln FDR-10 (knapp 40 Gbit/s) 15 PB paralleles GByte/s 9
9 SuperMUC Phase 1 (rendering) Quelle: Systemausbildung High Performance Computing
10 SuperMUC 2012 (realer Kabelsalat) Quelle: Wikipedia-User Mdw77, CC-BY-SA Systemausbildung High Performance Computing
11 SuperMUC (Rechenknoten mit Wasserkühlung) Quelle:
12 LiMa Rechenknoten
13 Mit dem HPC-System läuft $GTA5 doch super, oder? HPC-Systeme führen nicht auf magische Weise beliebige Software schneller aus Software muss explizit dafür programmiert werden, dass sie das HPC-System nutzen kann Parallelisierung! Selbst wenn das HPC-Cluster unter Windows laufen würde, könnte $GTA5 nicht mehr als einen Knoten eines Clusters benutzen. 14
14 Top500 Liste der 500 schnellsten HPC-Systeme die öffentlich bekannt sein sollen Gemessen mit Linpack -Benchmark (lösen eines großen linearen Systems) Erscheint 2x pro Jahr (Nov. + Juni) #1 Juni 2017: Sunway TaihuLight, China cores, chinesische CPU #2: Tianhe-2, China Intel Xeon Phi cores 15
15 Trends Top500-Liste Juni % mit Infiniband- oder OmniPath-Vernetzung >99% mit Linux (Windows: zuletzt 07/ System) 33% der Systeme in den USA, 32% in China (.de: 5%); Top 10: 2.cn, 5 USA, 2.jp, 1.ch Zum Vergleich 11/2014: 46% USA, 12%.cn. Top10: 1.cn, 6 USA, 1.jp, 1.ch, 1.de 90% mit Intel Xeon CPUs (11/2014: 85%) 16
16 Infiniband / Omni-Path De-facto Standard für HPC-Cluster Außer Ethernet praktisch keine Konkurrenz mehr Schnell und mit sehr geringer Latenz Switched fabric, oft fully non-blocking (bis 648 Ports) QDR: 40 Gbit roh, 32 Gbit Nutz, 1.3 µs Latenz (seit 2007) FDR: 56 Gbit roh, 54 Gbit Nutz, 0.7 µs Latenz (seit 2011) Omni-Path: im Prinzip GBit, nur Intel-proprietär und mit Infiniband inkompatibel :-/ 17
17 Infiniband - Probleme Grauenhafte (Nicht-)API Vom Endanwender unbemerkt Geringe Zuverlässigkeit Besorgniserregende Marktkonsolidierung Nur noch zwei Hersteller für QDR, nur einer für FDR Stark verlangsamte Entwicklung, steigende Preise Wird durch Omni-Path nicht besser, im Gegenteil 18
18 Ein Teil des Infiniband-Netzes von LiMa Systemausbildung High Performance Computing
19 Acceleratoren Einsteckkarten, auf die Berechnungen ausgelagert werden können GPUs Intel Xeon Phi Noch schwieriger effizient zu programmieren als normale shared-memory-systeme oder Cluster. Programmiermodelle NVIDIA CUDA, OpenCL, OpenACC (GPUs) OpenMP (Intel Xeon Phi) Wunder darf man auch im Idealfall nicht erwarten! 20
20 Parallelisierungsarten Shared Memory OpenMP: Compiler-Erweiterung Pthreads: POSIX library TBB, OmpSs, Cilk+, Automatische Parallelisierung: nicht praxisrelevant Distributed Memory MPI (Message Passing Interface) Version 1.0: Juni 1994; Aktuelle Version: MPI 3.1 (06/2015) Sprachbasierte Parallelität X10, Chapel, 21
21 OpenMP Spracherweiterungen, die von einem OpenMP-fähigen Compiler ausgewertet und umgesetzt werden Trivial-Beispiel aus Wikipedia (in C): int i, a[100000]; #pragma omp parallel for for (i = 0; i < N; i++) a[i] = 2 * i; Jeder Thread bekommt einen Teil der Schleife zugewiesen und arbeitet ihn ab (Shared Memory!) 22
22 MPI Alt aber konstant weiterentwickelt Library-basiert (Funktionsaufrufe) Programmiersprache ist weiterhin seriell Praktisch jede Software die parallel auf mehr als einem Rechner laufen kann setzt darauf auf Alle hochskalierbaren Produktionscodes auf Supercomputern sind MPI-basiert. 23
23 MPI MPI-Standard definiert ein Set von Funktionen für die Programmierung von Parallelrechnern Senden / Empfangen von Nachrichten Parallel I/O Synchronisation warten bis alle Prozesse eine Barriere erreicht haben 24
24 Hello World in MPI (C) int main(int argc, char ** argv) { int numprocs, myid; MPI_Init(&argc, &argv); MPI_Comm_size(MPI_COMM_WORLD, &numprocs); MPI_Comm_rank(MPI_COMM_WORLD, &myid); printf( Hi, ich bin Prozess %d von %d\n", myid, numprocs); MPI_Finalize(); return 0; } 25
25 Nutzung von HPC-Clustern in der Praxis: Batchbetrieb Fast wie in der guten alten Zeit: Lochkarten mit Programmen darauf abgeben, auf Verarbeitung warten, Ergebnis abholen Nur heutzutage natürlich ohne Lochkarten Man kann sich nicht einfach direkt auf beliebigen Knoten des Clusters einloggen Stattdessen: Einloggen auf Frontend, Jobs submittieren Frontends sind interaktiv zugänglich (meist SSH) Dort können Jobs vorbereitet und abgeschickt werden Jobs müssen komplett ohne Benutzereingaben auskommen! 29
26 Beispiel-Batchscript #!/bin/bash -l # #PBS -M [email protected] #PBS -m abe #PBS -N LINPACK #PBS -l walltime=01:45:00 #PBS -l nodes=16:ppn=24 # Spezifikation von Ressourcen und anderen Parametern cd $PBS_O_WORKDIR module load intelmpi mpirun_rrze -npernode 12 -pinexpr "S0:0-5@S1:0-5"./xhpl Arbeit! 30
27 Batchbetrieb Scheduler legt fest, wann der Job ausgeführt wird und berücksichtigt dabei Dinge wie Priorität des Nutzers und seiner Gruppe wieviel Rechenzeit hat der Nutzer und seine Gruppe in der jüngeren Vergangenheit schon bekommen ( Fair Share ) Andere laufende Jobs Reservierungen (z.b. für Nutzer oder Wartungsarbeiten) Verfügbarkeit von Lizenzen die der Job braucht 31
28 ORGANISATORISCHES Die Vorträge im Überblick Andere Vortragsreihen des RRZE Ablageorte Vortragsfolien RRZE-Veranstaltungskalender / Mailingliste abonnieren Themenvorschläge & Anregungen
29 Weitere Vorträge zur Systemausbildung Geschichte der Betriebssysteme Unixoide Betriebssysteme (Unix, Linux, OS X) Systemüberwachung / Monitoring Storage & Filesysteme Windows-Betriebssysteme High Performance Computing Benutzerverwaltung: MS Active Directory Virtualisierung Backup / Archiv Kerberos IT-Sicherheit Immer mittwochs (ab 14 c.t.), Raum im RRZE 33
30 Andere Vortragsreihen des RRZE Campustreffen immer donnerstags ab 15 Uhr c.t. vermittelt Informationen zu den Dienstleistungen des RRZE befasst sich mit neuer Hard- & Software, Update-Verfahren sowie Lizenzfragen ermöglicht den Erfahrungsaustausch mit Spezialisten Netzwerkausbildung Praxis der Datenkommunikation immer mittwochs in den Wintersemestern, ab 14 Uhr c.t. Vorlesungsreihe, die in die Grundlagen der Netztechnik einführt stellt die zahlreichen aktuellen Entwicklungen auf dem Gebiet der (universitären) Kommunikationssysteme dar 34
31 Vortragsfolien Die Vortragsfolien werden nach der Veranstaltung auf der Webseite des RRZE abgelegt: 35
32 RRZE-Veranstaltungskalender & Mailinglisten Kalender abonnieren oder bookmarken Alle Infos hierzu stehen auf der Webseite des RRZE unter: Mailingliste abonnieren Wöchentliche Terminhinweise werden zusätzlich an die Mailingliste RRZE-Aktuelles gesendet. Auch diese Liste kann man abonnieren: 36
33 Themenvorschläge & Anregungen Themenvorschläge und Anregungen nehmen wir gerne entgegen! Bitte schreiben Sie uns einfach eine an: (Betreff: Systemausbildung) 37
34 REGIONALES RECHENZENTRUM ERLANGEN [RRZE] Vielen Dank für Ihre Aufmerksamkeit! Regionales RechenZentrum Erlangen [RRZE] Martensstraße 1, Erlangen
High Performance Computing
REGIONALES RECHENZENTRUM ERLANGEN [ RRZE ] High Performance Computing Systemausbildung Grundlagen und Aspekte von Betriebssystemen und System-nahen Diensten Michael Meier, RRZE, 01.07.2015 Agenda Was bedeutet
Die Geschichte der Betriebssysteme: Vom Mainframe zum Smartphone
REGIONALES RECHENZENTRUM ERLANGEN [ RRZE] Die Geschichte der Betriebssysteme: Vom Mainframe zum Smartphone Systemausbildung Grundlagen und Aspekte von Betriebssystemen und System-nahen Diensten, 20.04.2016
Einführungsvortrag REGIONALES RECHENZENTRUM ERLANGEN [RRZE]
REGIONALES RECHENZENTRUM ERLANGEN [RRZE] Einführungsvortrag Systemausbildung Grundlagen und Aspekte von Betriebssystemen und System-nahen Diensten, 22.04.2015 Referent: Marcel Ritter, RRZE AGENDA - Ausrichtung
Die Geschichte der Betriebssysteme: Vom Mainframe zum Smartphone
REGIONALES RECHENZENTRUM ERLANGEN [ RRZE ] Die Geschichte der Betriebssysteme: Vom Mainframe zum Smartphone Systemausbildung! Grundlagen und Aspekte von Betriebssystemen und System-nahen Diensten 29.04.2015
Systemüberwachung / Monitoring
REGIONALES RECHENZENTRUM ERLANGEN [RRZE] Systemüberwachung / Monitoring Systemausbildung Grundlagen und Aspekte von Betriebssystemen und System-nahen Diensten Uwe Scheuerer, RRZE, 24.06.2015 Agenda Wozu
Webmaster-Campustreffen
REGIONALES RECHENZENTRUM ERLANGEN [ RRZE ] Webmaster-Campustreffen 21. Mai 2015 ROLLOUT DES FAU-DESIGNS Rollout neuer Designs - Aktueller Umsetzungsstand und Zeitplanung Umsetzung (bisher) Relaunch www.fau.de
Web Single Sign-On (WebSSO)
REGIONALES RECHENZENTRUM ERLANGEN [ RRZE] Web Single Sign-On (WebSSO) RRZE-Campustreffen, 28.04.2016 Frank Tröger, RRZE Agenda 1. Einführung Was ist WebSSO? 2. Historie Wie hat sich das WebSSO an der FAU
HLRN III - HPC Ressource für Norddeutschland
HLRN III - HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover [email protected] 23. September 2014 Inhalt Der HLRN Verbund
Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ
Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ Hinnerk Stüben ZKI-Arbeitskreis Supercomputing Leibniz-Rechenzentrum, Garching 19. Oktober 2015 Themen Neues HPC-Cluster
Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland
Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover [email protected] 14. März 2013
Die deutsche Windows HPC Benutzergruppe
Christian Terboven, Dieter an Mey {terboven, anmey}@rz.rwth aachen.de Rechen und Kommunikationszentrum RWTH Aachen Windows HPC Server Launch 16. Oktober, Frankfurt am Main Agenda o Hochleistungsrechnen
Trend der letzten Jahre in der Parallelrechentechnik
4.1 Einführung Trend der letzten 10-15 Jahre in der Parallelrechentechnik weg von den spezialisierten Superrechner-Plattformen hin zu kostengünstigeren Allzwecksystemen, die aus lose gekoppelten einzelnen
Introduction Workshop 11th 12th November 2013
Introduction Workshop 11th 12th November 2013 Lecture I: Hardware and Applications Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Overview Current and next System Hardware Sections
Projektseminar Parallele Programmierung
HTW Dresden WS 2014/2015 Organisatorisches Praktikum, 4 SWS Do. 15:00-18:20 Uhr, Z136c, 2 Doppelstunden o.g. Termin ist als Treffpunkt zu verstehen Labore Z 136c / Z 355 sind Montag und Donnerstag 15:00-18:20
Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund
Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund Das Wissenschaftlichen Rechnen hat sich in Forschung und Lehre in den letzten Jahren zu einem wichtigen
MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz
MOGON Markus Tacke HPC ZDV HPC - AHRP Was ist Mogon allgemein? Das neue High Performance Cluster der JGU Ein neues wichtiges Werkzeug für Auswertung von Messdaten und Simulationen Beispiele Kondensierte
Nutzung paralleler Prozesse bei der Umweltsimulation
Nutzung paralleler Prozesse bei der Umweltsimulation RALF Wieland [email protected] ZALF/LSA Nutzung paralleler Prozesse bei der Umweltsimulation p. 1 Warum parallele Prozesse? Die Steigerung der Taktfrequenz
UBELIX University of Bern Linux Cluster
University of Bern Linux Cluster Informatikdienste Universität Bern ID BEKO Grid Forum 7. Mai 2007 Inhalt Einführung Ausbau 06/07 Hardware Software Benutzung Dokumentation Gut zu wissen Kontakt Apple/Mac:
Übung zu Grundlagen der Betriebssysteme. 3. Übung 30.10.2012
Übung zu Grundlagen der Betriebssysteme 3. Übung 30.10.2012 Aufgabe 1 Schließen Sie sich über die URL http://userpages.uni-koblenz.de/~mips/bs/anmeldung/ Bearbeitungsgruppen bestehend aus 3 Teilnehmern
2 Rechnerarchitekturen
2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf
General Purpose Computation on GPUs
General Purpose Computation on GPUs Matthias Schneider, Robert Grimm Universität Erlangen-Nürnberg {matthias.schneider, robert.grimm}@informatik.stud.uni-erlangen.de M. Schneider, R. Grimm 1 Übersicht
EXASOL @ Symposium on Scalable Analytics. www.exasol.com. Skalierbare Analysen mit EXASolution
EXASOL @ Symposium on Scalable Analytics Skalierbare Analysen mit EXASolution EXASOL AG Wer sind wir R&D: + seit 2000 + laufend Forschungsprojekte Produkt: Analytische Datenbank EXASolution Focus auf Komplexität
HPC an der Uni Mainz
Einwicklung vom ersten Top500 Rechner bis zum AHRP HPC - AHRP - ZKI Markus Tacke, ZDV, Universität Mainz AK Supercomputer Kaiserslautern 19.4.2012 ZDV: CC NUMA 1.1.1995: Convex SPP1000/16 16 PA Risc 7100
Einige Grundlagen zu OpenMP
Einige Grundlagen zu OpenMP Stephanie Friedhoff, Martin Lanser Mathematisches Institut Universität zu Köln 22. Juni 2016 Überblick Was ist OpenMP? Basics Das OpenMP fork-join-modell Kompilieren und Ausführen
Hochleistungsrechnen Hybride Parallele Programmierung. Prof. Dr. Thomas Ludwig Universität Hamburg Informatik Wissenschaftliches Rechnen
Hochleistungsrechnen Hybride Parallele Programmierung Prof. Dr. Thomas Ludwig Universität Hamburg Informatik Wissenschaftliches Rechnen Inhaltsübersicht Einleitung und Motivation Programmiermodelle für
science + computing ag
science + computing ag Evaluation der Integration von Windows HPC in eine bestehende Berechnungsumgebung Harry Schlagenhauf science + computing ag IT-Dienstleistungen und Software für anspruchsvolle Rechnernetze
Wissenschaftliches Rechnen an der Christian- Albrechts-Universität zu Kiel
Wissenschaftliches Rechnen an der Christian- Albrechts-Universität zu Kiel ZKI-Tagung, AK Supercomputing, 16.-17.03.2015 Holger Marten Landeshauptstadt Kiel - Bodo Quante 1. Etwas Historie 16.03.2015 Dr.
Unixoide Betriebssysteme (Unix, Linux, OS X)
REGIONALES RECHENZENTRUM ERLANGEN [ RRZE ] Unixoide Betriebssysteme (Unix, Linux, OS X) Systemausbildung! Grundlagen und Aspekte von Betriebssystemen und System-nahen Diensten 06.05.2015 Oliver Kett, RRZE
Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien
Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at
Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation
1 Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation Dr. G. Wellein, Regionales Rechenzentrum Erlangen Supercomputer
Staff. Tim Conrad. Zeitplan. Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2013. Tim Conrad
Blockseminar: Verteiltes Rechnen und Parallelprogrammierung Sommer Semester 2013 Tim Conrad Staff Tim Conrad AG Computational Proteomics email: [email protected] Telefon: 838-51445 Büro: Raum 138,
Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung
Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung Fritz Günther 17.03.2014 Folie 1 Agenda Was ist Virtualisierung Server- / Clientvirtualisierung
Parallel Programming: Message-Passing-Interface
Vorlesung Rechnerarchitektur 2 Seite 71 MPI-Einführung Parallel Programming: Voraussetzungen im Source-Code für ein MPI Programm: mpi.h includen Die Kommandozeilenparameter des Programms müssen an MPI_Init
ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf
ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012 Scientific Computing in Düsseldorf Peter Schreiber [email protected] 0211-81-13913 http://www.zim.hhu.de ZKI Arbeitskreis Supercomputing 20.-21.09.2012
OpenMP. Viktor Styrbul
OpenMP Viktor Styrbul Inhaltsverzeichnis Was ist OpenMP Warum Parallelisierung Geschichte Merkmale von OpenMP OpenMP-fähige Compiler OpenMP Ausführungsmodell Kernelemente von OpenMP Zusammenfassung Was
Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1
Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer
Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen
Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem hristian Terboven Rechen- und Kommunikationszentrum RWTH Aachen 1 Hochleistungsrechnen mit Windows enter omputing and ommunication
C C. Hochleistungsrechnen (HPC) auf dem Windows Compute Cluster des RZ der RWTH Aachen. 1 WinHPC 2006 - Einführung Center. 31.
Hochleistungsrechnen (HP) auf dem Windows ompute luster des RZ der RWTH Aachen 31. Mai 2006 hristian Terboven Dieter an Mey {terboven anmey}@rz.rwth-aachen.de 1 WinHP 2006 - Einführung enter SunFire V40z
Zukunft Hochleistungsrechnen an der TU-Darmstadt
Zukunft Hochleistungsrechnen an der TU-Darmstadt Infoveranstaltung - 15:30-17:00 Uhr Prof. Dr. Christian Bischof FG Scientific Computing im FB Informatik Leiter Hochschulrechenzentrum Dr. Andreas Wolf
Manycores: Hardware und Low-Level Programmierung
Manycores: Hardware und Low-Level Programmierung Florian Sattler Universität Passau 18. Juni 2014 Übersicht Einführung Neue Architekturen Programmierung Supercomputing Fazit 2 / 29 Top 500 3 / 29 Motivation
HPC und paralleles Rechnen
Prof. Dr. Dieter Kranzlmüller Dr. Nils gentschen Felde Dr. Karl Fürlinger Stephan Reiter Christian Straube HPC und paralleles Rechnen Workshop im Rahmen des Informatik-Probestudiums 2012 1 Überblick/Agenda
Benutzerverwaltung LDAP
REGIONALES RECHENZENTRUM ERLANGEN [ RRZE] Benutzerverwaltung LDAP Systemausbildung Grundlagen und Aspekte von Betriebssystemen und System-nahen Diensten, 04.05.2016 Andrei Galea, RRZE AGENDA Einführung
RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck
RST-Labor WS06/07 GPGPU General Purpose Computation On Graphics Processing Units (Grafikkarten-Programmierung) Von: Marc Blunck Ablauf Einführung GPGPU Die GPU GPU Architektur Die Programmierung Programme
Middleware - Cloud Computing Übung
Middleware - Cloud Computing Übung Tobias Distler, Klaus Stengel, Timo Hönig, Johannes Behl Friedrich-Alexander-Universität Erlangen-Nürnberg Lehrstuhl Informatik 4 (Verteilte Systeme und Betriebssysteme)
Oracle EngineeredSystems
Oracle EngineeredSystems Überblick was es alles gibt Themenübersicht Überblick über die Engineered Systems von Oracle Was gibt es und was ist der Einsatzzweck? Wann machen diese Systeme Sinn? Limitationen
BIG UNIVERSITÄTSRECHENZENTRUM
UNIVERSITÄTS RECHENZENTRUM LEIPZIG BIG DATA @ UNIVERSITÄTSRECHENZENTRUM Forschung und Entwicklung Entwicklung eines E-Science-Angebots für die Forschenden an der Universität Leipzig Stefan Kühne Axel Ngonga
NEC HPC-System. SX-ACE Vektorrechnersystem u. HPC-Linux Cluster. Rechenzentrum
SX-ACE Vektorrechnersystem u. HPC-Linux Cluster 1 Ansprechpartner HPC-Support Team Benutzerberatung Dr. Karsten Balzer Dr. Simone Knief Systembetreuung: Dr. Cebel Kücükkaraca Alfred Wagner Mailingliste:
Windows HPC Server 2008 aus der Betreiberperspektive
Windows HPC Server 2008 aus der Betreiberperspektive Michael Wirtz [email protected] aachen.de Rechen und Kommunikationszentrum RWTH Aachen WinHPC User Group Meeting 2009 30./31. März 09, Dresden Agenda o
Dynamic Ressource Management
best Open Systems Day Fall 2006 Dynamic Ressource Management Unterföhring Marco Kühn best Systeme GmbH [email protected] Agenda Überblick Dynamic Resource Pools und FSS Dynamic Resource Memory RCAP Oracle
GPGPUs am Jülich Supercomputing Centre
GPGPUs am Jülich Supercomputing Centre 20. April 2012 Jochen Kreutz Jülich Supercomputing Centre (JSC) Teil des Forschungszentrums Jülich und des Institute for Advanced Simulation (IAS) betreibt Supercomputer
Servervirtualisierung bei der GWDG GWDG IK, 27.6.2007
Servervirtualisierung bei der GWDG GWDG IK, 27.6.2007 von Andreas Ißleiber ([email protected]) Gesellschaft für wissenschaftliche Datenverarbeitung mbh Göttingen Am Fassberg, 37077 Göttingen Fon: 0551 201-1510
Big Data in der Forschung
Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die
LINUX Schulung. FrauenComputerZentrum Berlin. Jutta Horstmann, Mai 2006
LINUX Schulung FrauenComputerZentrum Berlin Jutta Horstmann, Mai 2006 Agenda Was ist Linux Was ist Open Source Warum Open Source Software Wie sieht Open Source Software aus Was kann man damit machen Ausprobieren!!
HA Storage Cluster Lösung
@ EDV - Solution HA Storage Cluster Lösung hochverfügbar, flexibel, schlüsselfertig, kostengünstig, einfaches Management 99,9% Verfügbarkeit klingt gut, reicht uns aber nicht! Seite 2 Fakten zählen, nicht
HA Storage Cluster Lösung
@ EDV - Solution HA Storage Cluster Lösung hochverfügbar, flexibel, schlüsselfertig, kostengünstig, einfaches Management @ EDV - Solution Tel.: +43 (0)7612 / 62208-0 Fax: +43 (0)7612 / 62208-15 4810 Gmunden
Vertiefungsrichtung Rechnerarchitektur
srichtung () ( für ) Prof. Dietmar Fey Ziele der srichtung RA Vertiefen des Verständnis vom Aufbau, Funktionsweise von Rechnern und Prozessoren Modellierung und Entwurf von Rechnern und Prozessoren ()
Green IT Fraunhofer ITWM Rechenzentrum
Green IT Fraunhofer ITWM Rechenzentrum PUE = 1,35 Green IT Performance Power Usage Efficiency PUE/ERE ATA Tagung 2011 Bremen, Dr. Franz-Josef Pfreundt Division Director. CIO Fraunhofer Institiut für Techno
Fluent auf Windows HPC Server 2008. ict ag - Mit uns können Sie rechnen
Fluent auf Windows HPC Server 2008 ict ag - Mit uns können Sie rechnen Historie der ict AG Die ict (information communication technology) AG mit Sitz in Aachen, wurde im Jahre 1985 gegründet und übernimmt
Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2015. Tim Conrad
Blockseminar: Verteiltes Rechnen und Parallelprogrammierung Sommer Semester 2015 Tim Conrad Staff Tim Conrad AG Medical Bioinformatics email: [email protected] Telefon: 838-51445 Büro: Raum 138,
Grundlagen der Parallelisierung
Grundlagen der Parallelisierung Philipp Kegel, Sergei Gorlatch AG Parallele und Verteilte Systeme Institut für Informatik Westfälische Wilhelms-Universität Münster 3. Juli 2009 Inhaltsverzeichnis 1 Einführung
OpenMP - Threading- Spracherweiterung für C/C++ Matthias Klein, Michael Pötz Systemprogrammierung 15. Juni 2009
- Threading- Spracherweiterung für C/C++ Matthias Klein, Michael Pötz Systemprogrammierung 15. Juni 2009 Grundlagen der Parallelen Programmierung Hardware Threads vs. Prozesse Kritische Abschnitte Lange
Neues in Hyper-V Version 2
Michael Korp Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/mkorp Neues in Hyper-V Version 2 - Virtualisieren auf die moderne Art - Windows Server 2008 R2 Hyper-V Robust Basis:
Dienstleistungen Abteilung Systemdienste
Dienstleistungen Abteilung Systemdienste Betrieb zentraler Rechenanlagen Speicherdienste Systembetreuung im Auftrag (SLA) 2 HP Superdome Systeme Shared Memory Itanium2 (1.5 GHz) - 64 CPUs, 128 GB RAM -
Software Distributed Shared Memory. Vortrag im Rahmen des Seminars Ausgewählte Themen in Hardwareentwurf und Optik Sarah Neuwirth, 05.
Software Distributed Shared Memory Vortrag im Rahmen des Seminars Ausgewählte Themen in Hardwareentwurf und Optik Sarah Neuwirth, 05. Juli 2011 Agenda 1. Motivation 2. Was ist Software Distributed Shared
Aktuelle Trends und Herausforderungen in der Finite-Elemente-Simulation
Aktuelle Trends und Herausforderungen in der Finite-Elemente-Simulation Kai Diethelm GNS Gesellschaft für numerische Simulation mbh Braunschweig engineering software development Folie 1 Überblick Vorstellung
PostgreSQL auf vielen CPUs. Hans-Jürgen Schönig Hans-Jürgen Schönig
PostgreSQL auf vielen CPUs Ansätze zur Skalierung PostgreSQL auf einer CPU Traditionell läuft eine Query auf nur einer CPU Historisch gesehen war das kein Problem Mittlerweile ist das ein großes Problem
CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm
CHiC er Hochleistungs-Linux Cluster Stand HPC Cluster CHiC, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität
MPI-Programmierung unter Windows mit MPICH2. Installieren von MPICH2, Übersetzen, Ausführen und Debuggen von MPI-Programmen. Christian Terboven
MPI-Programmierung unter Windows mit MPIH2 Installieren von MPIH2, Übersetzen, Ausführen und Debuggen von MPI-Programmen hristian Terboven Rechen- und Kommunikationszentrum RWTH Aachen 1 02/2007 luster-installationsworkshop
Anleitung für zwei C++ - Openmp - Beispiele auf der NWZSuperdome
Anleitung für zwei C++ - Openmp - Beispiele auf der NWZSuperdome (Timo Heinrich, [email protected]) Inhaltsverzeichnis: 0.Einleitung 1.Teil: Helloworldprogramm 1.1 Quellcode: Helloworld.cpp 1.2
Cloud-Task-Parallelisierung in.net: Jenseits der lokalen Prozessor-Power
Cloud-Task-Parallelisierung in.net: Jenseits der lokalen Prozessor-Power Prof. Dr. Luc Bläser Hochschule für Technik Rapperswil Parallel 2013, Karlsruhe 15. Mai 2013 Stufen der Parallelisierung Multi-core
Compute Unified Device Architecture CUDA
Compute Unified Device Architecture 06. Februar 2012 1 / 13 Gliederung 2 / 13 : Compute Unified Device Architecture entwickelt von Nvidia Corporation spezifiziert Software- und Hardwareeigenschaften Ziel:
Linux High Availability out of the Box der Thomas Krenn Cluster
Linux High Availability out of the Box der Thomas Krenn Cluster Thomas-Krenn.AG Webcast, 26. September 2006 Werner Fischer Cluster-Development Thomas-Krenn.AG Agenda 1) Warum Cluster out-of-the-box? 2)
Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen
Center for Information Services and High Performance Computing (ZIH) Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen Hochgeschwindigkeitskommunikationen 13. Juli 2012 Andy
Seminar GPU-Programmierung/Parallelverarbeitung
Seite iv Literaturverzeichnis 1) Bengel, G.; et al.: Masterkurs Parallele und Verteilte Systeme. Vieweg + Teubner, Wiesbaden, 2008. 2) Breshears, C.: The Art of Concurrency - A Thread Monkey's Guide to
Programmierung und Leistungsanalyse des bwgrid-clusters. Dr. Heinz Kredel und Dr. Hans-Günther Kruse
Programmierung und Leistungsanalyse des bwgrid-clusters Dr. Heinz Kredel und Dr. Hans-Günther Kruse Inhalt bwgrid Cluster Programmierung Threads, OpenMP, Kommunikation, OpenMPI, Strategien Leistungsanalyse
Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel
Freiberuflicher Schwerpunkte: Unix, Oracle, Netzwerk 2005 1 Testaufbauten von Oracle 10g RAC auf preiswerter Hardware 2 3 Typisches Cluster System Clients Public Network Node A Node B Cluster Interconnect
Die Dienstleistung Servermanagement umfasst die Bereitstellung und den Betrieb von Servern an der ETH.
Servermanagement Beschreibung Allgemein Die Dienstleistung Servermanagement umfasst die Bereitstellung und den Betrieb von Servern an der ETH. Neben den bekannten physischen Servern bieten wir ihnen virtuelle
Kopplung der bwgrid Cluster. Heidelberg und Mannheim
Kopplung der bwgrid Cluster von Heidelberg und Mannheim Steffen Hau, Heinz Kredel, Sabine Richling, Rolf Bogus ZKI AK Supercomputing, zib, FU Berlin, Oktober 2009 Inhalt Heidelberg und Mannheim bwgrid
Einführung. GPU-Versuch. Andreas Schäfer Friedrich-Alexander-Universität Erlangen-Nürnberg
GPU-Versuch [email protected] Friedrich-Alexander-Universität Erlangen-Nürnberg Praktikum Parallele Rechnerarchitekturen SS2014 Outline 1 Einführung 2 Outlook 1 Einführung 2 Eine kurze Geschichte
2. Der ParaNut-Prozessor "Parallel and more than just another CPU core"
2. Der ParaNut-Prozessor "Parallel and more than just another CPU core" Neuer, konfigurierbarer Prozessor Parallelität auf Daten- (SIMD) und Thread-Ebene Hohe Skalierbarkeit mit einer Architektur neues
Parallele Programmierung mit OpenMP
Parallele Programmierung mit OpenMP - Eine kurze Einführung - 11.06.2003 RRZN Kolloquium SS 2003 1 Gliederung 1. Grundlagen 2. Programmiermodell 3. Sprachkonstrukte 4. Vergleich MPI und OpenMP 11.06.2003
Systeme I: Betriebssysteme Kapitel 4 Prozesse. Wolfram Burgard
Systeme I: Betriebssysteme Kapitel 4 Prozesse Wolfram Burgard Version 18.11.2015 1 Inhalt Vorlesung Aufbau einfacher Rechner Überblick: Aufgabe, Historische Entwicklung, unterschiedliche Arten von Betriebssystemen
Grafikkarten-Architektur
> Grafikkarten-Architektur Parallele Strukturen in der GPU Name: Sebastian Albers E-Mail: [email protected] 2 > Inhalt > CPU und GPU im Vergleich > Rendering-Pipeline > Shader > GPGPU > Nvidia Tesla-Architektur
HA Storage Cluster Lösung
@ EDV - Solution HA Storage Cluster Lösung hochverfügbar, flexibel, schlüsselfertig, kostengünstig, einfaches Management 99,9% Verfügbarkeit klingt gut, reicht uns aber nicht! Seite 2 Fakten zählen, nicht
Inhalt. Prozessoren. Curriculum Manfred Wilfling. 28. November HTBLA Kaindorf. M. Wilfling (HTBLA Kaindorf) CPUs 28. November / 9
Inhalt Curriculum 1.4.2 Manfred Wilfling HTBLA Kaindorf 28. November 2011 M. Wilfling (HTBLA Kaindorf) CPUs 28. November 2011 1 / 9 Begriffe CPU Zentraleinheit (Central Processing Unit) bestehend aus Rechenwerk,
Vektorrechnersystem NEC SX-9
Ansprechpartner HPC-Support Team Benutzerberatung Dr. Gerd Hessler ([email protected]) Dr. Simone Knief ([email protected]) Dr. Eva-Maria Zeidler ([email protected]) Systembetreuung: Dr. Cebel
