T-Systems SfR - HPCN Workshop

Größe: px
Ab Seite anzeigen:

Download "T-Systems SfR - HPCN Workshop"

Transkript

1 HPC System Design und die Auswirkungen auf die Anwendungsperformance Thomas Alrutz HPC & escience Solutions & Innovations - Scientific & Technical ICT T-Systems Solutions for Research GmbH T-Systems SfR - HPCN Workshop

2 Motivation HPC System Design und Kennzahlen der Hardware Höchst mögliche Performance für die Ziel Anwendungen Möglichst geringe Energieaufnahme der verwendeten Komponenten Best möglicher Anschaffungspreis des Gesamtsystems Möglichst ausgewogene Total Cost of Ownership (TCO) des Gesamtsystems Kennzahlen beim Hardware Systemdesign (Maße) Stream Benchmark für Memory Bandbreite der Compute-Knoten MPI Latenz & Bandbreite des Interconnects CPU-Taktfrequenz (wichtig für die Leistungsaufnahme) Anzahl der integrierten CPU-Cores (wichtig für die pro Core Leistung) IO-Leistung paralleles Filesystem: Meta-Datenrate und Durchsatz in GB/sec T-Systems SfR - HPCN Workshop

3 Historie Installierte & betreute Clustersysteme (Knotenanzahl >> 50) 2004 DLR AT 192 Knoten SC AMD Opteron 2.4 GHz Infiniband SDR 2005 DLR AS-BS 162 Knoten SC AMD Opteron 2.6 GHz Infiniband SDR Erweiterung mit 48 DC AMD Opteron 2.4 GHz 2006 DLR AS-GÖ 84 Knoten DC AMD Opteron 2.2 GHz Infiniband SDR 2008 Erweiterung von DLR-AE mit QC AMD Barcelona 1.9 GHz HE 2007 DLR C²A²S²E 786 Knoten QC AMD Barcelona 1.9 GHz HE Infiniband SDR + GPFS 2008 Upgrade auf Infiniband DDR (Fat-Tree) 2009 DLR AS-BS 92 Knoten QC AMD Shanghai 2.6 GHz Infiniband DDR + GPFS 2009 DLR AT TRACE 200 Knoten QC Intel Nehalem 2.53 GHz Infiniband DDR + GPFS 2011 Erweiterung 150 Knoten HC Intel Westmere 2.66 GHz Infiniband QDR 2010 DLR C²A²S²E 648 Knoten HC Intel Westmere 2.93 GHz Infiniband QDR* + GPFS 2010 DLR AS-GÖ 200 Knoten HC Intel Westmere 2.66 GHz Infiniband Ql QDR + GPFS *Blockierungsfaktor von 50% bei mehr als 24 Knoten/288 Cores T-Systems SfR - HPCN Workshop

4 Kennzahlen CPUs und Interconnect Übersicht der CPU Architekturen mit Angabe der typischen Kennzahlen Socket SC AMD Opteron 2.6 GHz 10,4 GFlops 7,8 GBs Stream Triad Socket DC AMD Opteron 2.6 GHz - 20,8 GFlops - 10,2 GBs Stream Triad Socket QC AMD Opteron 2.7 GHz 86,4 GFlops - 20,7 GBs Stream Triad Socket QC Intel Nehalem 2,9 GHz 93,7 GFlops - 37,1 GBs Stream Triad Socket HC Intel Westmere 2,9 GHz 140,6 GFlops - 42 GBs Stream Triad Socket 12C AMD MagnyCours 2.2GHz -211 Gflops - 52 GBs Stream Triad Übersicht der unterschiedlichen Netzwerke mit typischen Kennzahlen 2003 Infiniband SDR 10Gbit / MPI: 800 MB/sec 2.5 usec Max 288 Ports 2006 Infiniband DDR 20Gbit / MPI: 1600 MB/sec 1.8 usec* Max 288 Ports 2009 Infiniband QDR 40Gbit / MPI: 3200 MB/sec 1.5 usec * Max 384 Ports 2010 Infiniband QDR Qlogic 40Gbit / MPI: 3200 MB/sec 1.5 usec Max 384 Ports *Nur mit ConnectX HCA Adaptern erzielbar T-Systems SfR - HPCN Workshop

5 Beispiel Systemdesign Neubeschaffung Cluster für DLR Institut AS-GÖ/AS-Fluidsysteme Harte Anforderungen an den neuen HPC-Cluster Mindestens Quad-Core Prozessortechnologie auf x86-64 Basis Hohe Memory Bandbreite bei moderatem CPU-Takt (Strom) Netzwerk QDR Infiniband Interconnect Paralleles GPFS Filesystem mit 320 TB und 2 GB/sec Durchsatz 200 Compute-Knoten mit je 24 GB (60) bzw. 48 GB (140) RAM Wasserkühlung der kompletten Compute-Racks (max. 200 kw) Luftkühlung der Infrastruktur-Racks (max. 50 kw) Maximale Stromaufnahme bis zu 250 kw Aufteilung des Systems in zwei voneinander getrennte Cluster bei Benutzung einer gemeinsamen Infrastruktur T-Systems SfR - HPCN Workshop

6 Anforderungsanalyse Applikationsmix Nutzung des Clusters durch verschiedene Applikationen erschwert die Entscheidung für eine homogene Architektur Für die Ausschreibung muss ein geeignetes Benchmarkszenario ausgewählt werden um die Applikationsanforderungen möglichst gut zu treffen Applikationsauswahl nach Nutzung auf dem alten Instituts-Cluster DLR TAU-Code (RANS/DES) kompressibel & inkompressibel DLR FLOWSI-Code (LES/DNS) OpenFOAM (Versionen 1.5, 1.6, 1.7) StarCD, StarCCM+ PIV-Bildauswertung T-Systems SfR - HPCN Workshop

7 Anforderungsanalyse Applikationsmatrix Code CPU-Takt Memory Bandbreite Memory Ausbau Netzwerk Latenz Netzwerk Bandbreite Skalierbarkeit Filesystem TAU Hoch Sehr Hoch Mittel Sehr Hoch Niedrig Hoch Mittel FLOWSI Hoch Sehr Hoch Mittel Mittel Hoch Mittel Sehr Hoch OpenFOAM Hoch Sehr Hoch Hoch Mittel Niedrig Niedrig Sehr Hoch Andere Einflussfaktoren TAU C-Code: Performanceunterschied icc/gcc Compiler ~ 10% FLOWSI Fortran-Code: Performanceunterschied ~ 20% - 30% TAU profitiert aufgrund der hohen Skalierbarkeit auch von einer hohen Message-Rate des Netzwerks FLOWSI profitiert bei der statistischen Auswertung (massiver FileIO) von einer hohen Meta-Datenrate des parallelen Filesystems T-Systems SfR - HPCN Workshop

8 Anforderungsanalyse Definition der Benchmarks für die Ausschreibung/Abnahme Aus der Applikationsmatrix sind folgende Benchmarks abgeleitet: 1. FLOWSI - Test A1Ra8N - Parallelität 128 Cores Iterationen, Storage 12GB, IO- LAST: 8,1 GB pro 200 Iterationen (write), 4 GB pro 1000 Iterationen (read & write) 2. TAU Rel p4 - Test DLR F6 DPW II half Case - Parallelität 96 Cores Iterationen Runge-Kutta, 4w, KW Turbulenzmodell, Storage 3.5GB, IO-Last 1,05 GB pro 1000 Iterationen 3. TAU Rel p4 - Test DLR F6 DPW II full Case - Parallelität 120 Cores Iterationen LU-SGS, 3v, KW Turbulenzmodell - Storage 84 GB, IO-Last 2,1 GB alle 25 Iterationen 4. Nachweis der 2GB/s Durchsatz des Filesystems durch Benchmark 3 über 10 Läufe gemittelt Zugesagte Performance muss von Bietern eingehalten werden T-Systems SfR - HPCN Workshop

9 Performancevergleich der neueren Systeme Grundlage: Benchmarks für Stream und Applikation System Stream FLOWSI A1Ra8N Barcelona 1.9 GHz Infiniband SDR Mellanox Nehalem 2.53 GHz Infiniband DDR Mellanox Westmere 2.93 GHz Infiniband QDR Mellanox TAU half RK 4w TAU full LUSGS 3v Faktor 14 GB/s 9008s 11963s -/- 1,0 32 GB/s 3032s 5256s 3562s 2,27-2,97 36 GB/s 2634s 5323s 3009s 2,24-3,42 Westmere 2.93 GHz Infiniband QDR Mellanox* Westmere 2.66 GHz Infiniband QDR Qlogic 41 GB/s 2635s 4867s 2253s 2,46-3,42 41 GB/s 2165s 4564s 2640s 2,62-4,16 Steigerung der Anwendungsperformance FLOWSI um den Faktor 4,1 Steigerung der Anwendungsperformance TAU um den Faktor 2,6 *Blockierungsfaktor von 50% bei mehr als 24 Knoten/288 Cores T-Systems SfR - HPCN Workshop

10 Analyse der Benchmark Resultate FLOWSI Benchmark profitiert vor allem von dem schnellen GPFS (3,3 GB/sec) Das 2.66 GHz System ist ca. 22% schneller als die 2.93 GHz Westmere Systeme Kein Unterschied zwischen den beiden schnelleren Westmere obwohl die Memory Bandbreite unterschiedlich ist. TAU profitiert klar von dem schnellen Interconnect (IB QDR-Qlogic) Bei Benchmark 2. (96 Cores) ist das 2.66 GHz 6,6%-16% schneller Bei Benchmark 3. (120 Cores) ist der 2.66 GHz 15% langsamer/14% schneller Offene Fragen : Warum schneiden die beiden 2.93GHz Westmere Systeme bei dem Benchmark Nr. 2 nicht so gut ab? 50% Blocking Faktor, Fat-Tree Architektur oder Message-Rate des Interconnects? T-Systems SfR - HPCN Workshop

11 Untersuchung der Abhängigkeit der Anwendungsperformance vom Interconnect 1. Benchmark Nr. 2 für Skalierungsrechnungen heranziehen (F6 DPW II 15.6 *10 6 ) 2. Kleineren Benchmarkfall (2*10 6 ) zur Verifikation (F6) Hohe Kommunikation 3. TAU-Version (2010) mit Verbesserungen bzgl. des Kommunikationsbedarfs 4. Einfluß des parallelen GPFS System möglichst gering alten während der Tests 5. Testsysteme im Produktionsmodus laufen lassen 1. 3 Westmere Systeme alle QDR 2. 1 Nehalem System mit DDR 6. Settings der Benchmarks mit den Standard Partitionierer von TAU (RCB) 7. Vergleichsberechnung mit der MPI Rank-Optimierung von TAU* 8. Andere Überlegungen zur Verbesserung * Rank Reordering for MPI Communication Optimization B. Brandfass DLR-AS C²A²S²E T-Systems SfR - HPCN Workshop

12 Vergleich der Knoten Performance mit TAU auf den Cluster Systemen Test der Basis Performance eines Knotens Klarer Vorteil für den schnellen Westmere mit hoher Memory Bandbreite Die Taktfrequenz spielt für die Performance von Tau eine untergeordnete Rolle System Stream TAU F6 15M RK 4w 200 Iter. Nehalem 2.53 GHz 8 Cores Infiniband DDR Mellanox Westmere 2.93 GHz 12 Cores Infiniband QDR Mellanox 32 GB/s -/- 226,6s 36 GB/s 2421,0s 181,6s TAU F6 2M RK 4w 100 Iter. Westmere 2.93 GHz 12 Cores Infiniband QDR Mellanox* Westmere 2.66 GHz 12 Cores Infiniband QDR Qlogic 41 GB/s 2322,9s 164,4s 41 GB/s 2387,2s 166,8s T-Systems SfR - HPCN Workshop

13 Ergebnisse der Skalierungsuntersuchungen F6 15M T-Systems SfR - HPCN Workshop

14 Ergebnisse der Skalierungsuntersuchungen F6 15M T-Systems SfR - HPCN Workshop

15 Ergebnisse der Skalierungsuntersuchungen F6 2M T-Systems SfR - HPCN Workshop

16 Was kann man nun tun um diese Bottlenecks zu beseitigen MPI Rank Reordering zur Kommunikationsoptimierung Idee Knoten interne Kommunikation ist meistens schneller als Knoten externe Aufgrund der Präsenz der Multi-Core Architekturen (>=12 Cores/Node) interessant Vorteil: Keinerlei Änderung im CFD-Solver Beispiel: MPI Kommunikationsmatrizen *Rank Reordering for MPI Communication Optimization B. Brandfass, T. Alrutz,, T. Gerhold ParCFD 2011 T-Systems SfR - HPCN Workshop

17 Ergebnisse der Skalierung MPI-Rank Optimierung F6 15M T-Systems SfR - HPCN Workshop

18 Ergebnisse der Skalierung MPI-Rank Optimierung F6 15M T-Systems SfR - HPCN Workshop

19 Ergebnisse der Skalierung MPI-Rank Optimierung F6 2M T-Systems SfR - HPCN Workshop

20 Was kann man nun noch tun I Graph Partitionierer statt RCB verwenden Graph Partitionierer reduzieren ide Anzahl der Kommunikationsnachbarn erheblich Beispiel: Skalierung RCB gegen Zoltan (Sandia) TAU 2011 mit 7 *10 6 Punkte* * Rank Reordering for MPI Communication Optimization B. Brandfass DLR-AS C²A²S²E ParCFD 2011 T-Systems SfR - HPCN Workshop

21 Was kann man nun noch tun II Hybride Parallelisierung MPI + OpenMP / Pthreads Hybride Parallelisierung reduziert die Anzahl der MPI-Domains und damit des Overheads Beispiel: TAU-HiCFD Prototyp (RCB) Fall DLR F6 2*10 6 Punkte* * HiCFD Prototyp von J Jägersküpper DLR-C²A²S²E T-Systems SfR - HPCN Workshop

22 Was kann man nun noch tun III Hybride Parallelisierung MPI + OpenMP / Pthreads + SIMD SIMD Parallelisierung nutzt die SSE Einheiten auf den CPUs effizient Beispiel: TAU-HiCFD Prototyp (RCB) SIMD Fall DLR F6 2*10 6 Punkte* * SIMD HiCFD Prototyp von J Jägersküpper, T. Alrutz, O. Krzikalla T-Systems SfR - HPCN Workshop

23 Zusammenfassung MPI Latenz und Bandbreite sind nicht unbedingt die wichtigsten Kennzahlen Die Durchsatzrate der MPI-Messages ist viel entscheidender für Strong-Scaling Graph-Partitionierer sind enorm wichtig für die Skalierung Richtige MPI-Task Platzierung ist enorm wichtig Schnelle MPI Bibliothek ist auch extrem wichtig Am Ende geht nichts über die Vermeidung von Kommunikation übers Netzwerk Hybriden Ansätzen gehört die Zukunft PGAS ist hierzu eventuell die richtige Technologie Wer das alles nicht hat, braucht einen schnellen Interconnect mit hoher Message Rate T-Systems SfR - HPCN Workshop

24 Vielen Dank für Ihre Aufmerksamkeit T-Systems SfR - HPCN Workshop

HPC an der Uni Mainz

HPC an der Uni Mainz Einwicklung vom ersten Top500 Rechner bis zum AHRP HPC - AHRP - ZKI Markus Tacke, ZDV, Universität Mainz AK Supercomputer Kaiserslautern 19.4.2012 ZDV: CC NUMA 1.1.1995: Convex SPP1000/16 16 PA Risc 7100

Mehr

Georg Hager Regionales Rechenzentrum Erlangen (RRZE)

Georg Hager Regionales Rechenzentrum Erlangen (RRZE) Erfahrungen und Benchmarks mit Dual- -Prozessoren Georg Hager Regionales Rechenzentrum Erlangen (RRZE) ZKI AK Supercomputing Karlsruhe, 22./23.09.2005 Dual : Anbieter heute IBM Power4/Power5 (Power5 mit

Mehr

Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland

Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 14. März 2013

Mehr

magnitude Erste Erfahrungen mit dem neuen HPC-System der UDE

magnitude Erste Erfahrungen mit dem neuen HPC-System der UDE magnitude Erste Erfahrungen mit dem neuen HPC-System der UDE ZKI-AK Supercomputing Holger Gollan Agenda Die Universität Duisburg-Essen (UDE) Das Zentrum für Informations- und Mediendienste (ZIM Das Center

Mehr

Matrix Transposition mit gaspi_read_notify. Vanessa End HPCN Workshop 11. Mai 2016

Matrix Transposition mit gaspi_read_notify. Vanessa End HPCN Workshop 11. Mai 2016 Matrix Transposition mit gaspi_read_notify Vanessa End HPCN Workshop 11. Mai 2016 Überblick Motivation Matrix Transposition GASPI Matrix Transposition in GASPI Zusammenfassung und Ausblick 2 Motivation

Mehr

Linux in allen Lebenslagen. Diskless Cluster und Lustre Erfahrungsbericht zum CHiC. Frank Mietke. Chemnitzer Linux-Tage 2007

Linux in allen Lebenslagen. Diskless Cluster und Lustre Erfahrungsbericht zum CHiC. Frank Mietke. Chemnitzer Linux-Tage 2007 Linux in allen Lebenslagen Diskless Cluster und Lustre Erfahrungsbericht zum CHiC Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität Chemnitz Chemnitzer

Mehr

ColdCon mini MUC ein MEGWARE-Projekt am LRZ Garching

ColdCon mini MUC ein MEGWARE-Projekt am LRZ Garching ColdCon mini MUC ein MEGWARE-Projekt am LRZ Garching Weltweit 1. direktwassergekühlter AMD-Cluster von MEGWARE Jörg Heydemüller Unternehmensprofil Gründung 1990 in Chemnitz Sachsen rund 60 hoch ausgebildete,

Mehr

Infiniband Kopplung Heidelberg Mannheim

Infiniband Kopplung Heidelberg Mannheim Infiniband Kopplung Heidelberg Mannheim Tests aktueller Komponenten und Pläne für den Ausbau S. Richling, S. Friedel (Universität Heidelberg) S. Hau, H. Kredel (Universität Mannheim) Förderträger: www.bwhpc-c5.de

Mehr

CLAIX Vorstellung und Technik Christian Terboven

CLAIX Vorstellung und Technik Christian Terboven CLAIX Vorstellung und Technik Christian Terboven Inhalte CLAIX Phase I Zwei Rack-Reihen + 2 Schränke Testbetrieb mit Projekten seit November 2016 Trier-2 HPC-System Abnahme im Januar 2017 TOP500 im November

Mehr

HLRN III - HPC Ressource für Norddeutschland

HLRN III - HPC Ressource für Norddeutschland HLRN III - HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 23. September 2014 Inhalt Der HLRN Verbund

Mehr

CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm

CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm CHiC er Hochleistungs-Linux Cluster Stand HPC Cluster CHiC, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität

Mehr

Oracle Real Application Cluster

Oracle Real Application Cluster Oracle Real Application Cluster Björn Bröhl OPITZ CONSULTING Gummersbach GmbH Seite 1 Übersicht Die RAC Architektur RAC Komponenten (Hard- und Software) Oracle Cluster Filesystem vs. Oracle Automatic Storage

Mehr

Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP)

Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP) Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP) @wefinet Werner Fischer, Thomas-Krenn.AG Webinar, 17. Oktober 2017 Intel Xeon Scalable Performance _ Das ist NEU: Neue

Mehr

Performance Engineering: Forschung und Dienstleistung für HPC-Kunden. Dirk Schmidl

Performance Engineering: Forschung und Dienstleistung für HPC-Kunden. Dirk Schmidl Performance Engineering: Forschung und Dienstleistung für HPC-Kunden Hardware Komplexität GPU KNL MPI L U S T R E SMP Claix NVMe HOME Storage OPA Die Komplexität moderner HPC Systeme erfordert Optimierung

Mehr

RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck

RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck RST-Labor WS06/07 GPGPU General Purpose Computation On Graphics Processing Units (Grafikkarten-Programmierung) Von: Marc Blunck Ablauf Einführung GPGPU Die GPU GPU Architektur Die Programmierung Programme

Mehr

Seminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit OpenMP 4.5 und OpenACC 2.5 im Vergleich

Seminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit OpenMP 4.5 und OpenACC 2.5 im Vergleich Seminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit Direktivenbasierte Programmierung von Beschleunigern mit Agenda Einführung / Motivation Überblick zu OpenMP und OpenACC Asynchronität

Mehr

Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner. Dr. Andreas Wolf. Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum

Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner. Dr. Andreas Wolf. Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Überblick Randbedingungen der HPC Beschaffung an der

Mehr

Optimierungen der Lattice Boltzmann Methode auf x86-64 basierten Architekturen

Optimierungen der Lattice Boltzmann Methode auf x86-64 basierten Architekturen Optimierungen der Lattice Boltzmann Methode auf x86-64 basierten Architekturen J. Treibig, S. Hausmann, U. Ruede 15.09.05 / ASIM 2005 - Erlangen Gliederung 1 Einleitung Motivation Grundlagen 2 Optimierungen

Mehr

Der neue Hessische Hochleistungsrechner HHLR

Der neue Hessische Hochleistungsrechner HHLR Der neue Hessische Hochleistungsrechner HHLR Erste Erfahrungen Norbert Conrad, conrad@hrz.tu-darmstadt.de ZKIHessen 26.8.2002 1 Darmstädter Hochleistungsrechner 1987: IBM 3090 VF ( 2 x 0,12 GFLOPS Vektor

Mehr

Ruprecht-Karls-Universität Heidelberg

Ruprecht-Karls-Universität Heidelberg Ruprecht-Karls-Universität Heidelberg PS: Themen der technischen Informatik Sommersemester 2013 Referentin: Hanna Khoury Betreuer: Prof. Dr. Ulrich Brüning, Dr. Frank Lemke Datum: 10.06.2014 1) Einige

Mehr

Storage-Zugriffsoptimierung mit QFS für TanDEM-X im DLR

Storage-Zugriffsoptimierung mit QFS für TanDEM-X im DLR Storage-Zugriffsoptimierung mit QFS für TanDEM-X im DLR Matthias Rumitz, dignum 27.05.2011 Das Projekt TanDEM-X wird anteilig durch das Bundesministerium für Wirtschaft und Technologie gefördert (Förderkennzeichen

Mehr

2 Rechnerarchitekturen

2 Rechnerarchitekturen 2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf

Mehr

Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis

Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis 1 2017 ANSYS, 14. Inc. Juni 2017 in June Winterthur 20, 2017 22. SCHWEIZER CADFEM ANSYS SIMULATION CONFERENCE Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis Martin Mann Sales & Acount

Mehr

High Performance Computing am Fraunhofer ITWM

High Performance Computing am Fraunhofer ITWM High Performance Computing am Fraunhofer ITWM FhGFS Zielsetzung und Einsatzszenarien 4. März 2010 ZKI Arbeitskreis Supercomputing Dr. Franz-Josef Pfreundt Competence Center for HPC Fraunhofer Institut

Mehr

RRZE Benchmark Suite: Eine standardisierte Benchmarkumgebung für Ausschreibungen und Evaluierungen

RRZE Benchmark Suite: Eine standardisierte Benchmarkumgebung für Ausschreibungen und Evaluierungen RRZE Benchmark Suite: Eine standardisierte Benchmarkumgebung für Ausschreibungen und Evaluierungen J. Treibig RRZE, Friedrich-Alexander-Universität Erlangen-Nürnberg 20.05.2011 Überblick Anwendung: Vorgeschriebene

Mehr

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz MOGON Markus Tacke HPC ZDV HPC - AHRP Was ist Mogon allgemein? Das neue High Performance Cluster der JGU Ein neues wichtiges Werkzeug für Auswertung von Messdaten und Simulationen Beispiele Kondensierte

Mehr

ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf

ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012 Scientific Computing in Düsseldorf Peter Schreiber schreiber@hhu.de 0211-81-13913 http://www.zim.hhu.de ZKI Arbeitskreis Supercomputing 20.-21.09.2012

Mehr

Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ

Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ Hinnerk Stüben ZKI-Arbeitskreis Supercomputing Leibniz-Rechenzentrum, Garching 19. Oktober 2015 Themen Neues HPC-Cluster

Mehr

TecNews: Sandy Bridge

TecNews: Sandy Bridge TecNews: Sandy Bridge Werner Fischer, Technology Specialist Thomas-Krenn.AG Thomas Krenn Herbstworkshop & Roadshow 2011 23.09. in Freyung 06.10. in Wien (A) 10.10. in Frankfurt 11.10. in Düsseldorf 12.10.

Mehr

Leistungsanalyse von Rechnersystemen

Leistungsanalyse von Rechnersystemen Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH) Leistungsanalyse von Rechnersystemen Auf Ein-/Ausgabe spezialisierte Benchmarks Zellescher Weg 12 Willers-Bau A109 Tel. +49 351-463 - 32424

Mehr

Titelmasterformat durch Klicken bearbeiten

Titelmasterformat durch Klicken bearbeiten Titelmasterformat durch Klicken Titelmasterformat durch Klicken Huawei Enterprise Server Systeme Global Player auf dem Server- und Storagemarkt Scale up Übersicht Titelmasterformat durch Klicken Textmasterformat

Mehr

GPGPUs am Jülich Supercomputing Centre

GPGPUs am Jülich Supercomputing Centre GPGPUs am Jülich Supercomputing Centre 20. April 2012 Jochen Kreutz Jülich Supercomputing Centre (JSC) Teil des Forschungszentrums Jülich und des Institute for Advanced Simulation (IAS) betreibt Supercomputer

Mehr

Well-Balanced. Performance Tuning

Well-Balanced. Performance Tuning Well-Balanced Real Application Cluster Performance Tuning Über mich virtual7 GmbH Jürgen Bouché Zeppelinstraße 2 76185 Karlsruhe Tel.: +49 (721) 6190170 Fax.: +49 (721) 61901729 Email: jbouche@heine.de

Mehr

Einsatz von GPFS an der JGU

Einsatz von GPFS an der JGU Einsatz von GPFS an der JGU HPC@JGU Markus Tacke Leiter HPC ZDV Johannes Gutenberg-Universität Mainz Was Kommt? Umfeld JGU Historie HPC@JGU und seine Daten Aufgabe ATLAS I/O Lösung GPFS!! Ergebnisse.(wird

Mehr

HYPER-CONVERGED INFRASTRUCTURE. Höhere Performance Reduzierte Ausfallzeiten Verbesserte Auslastung Niedrigere Kosten

HYPER-CONVERGED INFRASTRUCTURE. Höhere Performance Reduzierte Ausfallzeiten Verbesserte Auslastung Niedrigere Kosten HYPER-CONVERGED INFRASTRUCTURE Höhere Performance Reduzierte Ausfallzeiten Verbesserte Auslastung Niedrigere Kosten 2 HYPER-CONVERGED INFRASTRUCTURE Infrastrukturlösung mit Die Software läuft direkt auf

Mehr

parat. AMDs x86-prozessoren bieten hierfür das 3

parat. AMDs x86-prozessoren bieten hierfür das 3 Link: https://www.tecchannel.de/a/windows-7-xp-mode-performance-und-einschraenkungen,2018717 Benchmark-Test Windows 7 XP Mode - Performance und Einschränkungen Datum: Autor(en): 22.10.2009 Christian Vilsbeck

Mehr

Beispielvortrag: HPCG auf Intel Haswell-EP

Beispielvortrag: HPCG auf Intel Haswell-EP Beispielvortrag: HPCG auf Intel Haswell-EP Johannes Hofmann 1 Seminarvortrag Architekturen von Multi- und Vielkern-Prozessoren Erlangen, 19.4.2016 1 Computer Architecture, University Erlangen-Nuremberg

Mehr

Erste Erfahrungen mit Installation und Betrieb

Erste Erfahrungen mit Installation und Betrieb Erste Erfahrungen mit Installation und Betrieb von OpenHPC 14.10.2016 Holger Angenent Röntgenstr. 7-13, 48149 Münster 2 > Problemstellung Jeder neue Cluster kam bisher mit neuem Clustermanagement Einarbeitungszeit

Mehr

ANALYSE DER LATENZEN IM KOMMUNIKATIONSSTACK EINES PCIE-GEKOPPELTEN FPGA-BESCHLEUNIGERS. Sascha Kath

ANALYSE DER LATENZEN IM KOMMUNIKATIONSSTACK EINES PCIE-GEKOPPELTEN FPGA-BESCHLEUNIGERS. Sascha Kath ANALYSE DER LATENZEN IM KOMMUNIKATIONSSTACK EINES PCIE-GEKOPPELTEN FPGA-BESCHLEUNIGERS Sascha Kath Dresden, Gliederung 1. Motivation & Zielstellung 2. Systembeschreibung 3. Implementierung und Messungen

Mehr

Erfahrungen mit LSF an der RWTH. Eine kurze Geschichte der LoadSharingFacility

Erfahrungen mit LSF an der RWTH. Eine kurze Geschichte der LoadSharingFacility Erfahrungen mit LSF an der RWTH Eine kurze Geschichte der LoadSharingFacility Zeitlinie 2011 Wechsel SGE -> LSF, Bull Cluster, GPU-Cluster 2012 JARA-HPC 2014 Projektbewirtschaftung RWTH 2016 NEC Cluster

Mehr

Simulation der instationären Strömung in einem Diffusionsofen mit Wärmestrahlung

Simulation der instationären Strömung in einem Diffusionsofen mit Wärmestrahlung Simulation der instationären Strömung in einem Diffusionsofen mit Wärmestrahlung R. Kessler DLR-AS-CASE Simulation der instationären Strömung in einem Diffusionsofen mit Wärmestrahlung Slide 1 > HPC 2009

Mehr

DOAG Konferenz 2007 in Nürnberg

DOAG Konferenz 2007 in Nürnberg DOAG Konferenz 2007 in Nürnberg Auswahl und Sizing: Die richtige Hardware (+Software) für Oracle Björn Bröhl Projektmanager Handlungsbevollmächtigter Seite 1 Inhalt Die Zielsetzung Vorgehensweise Auswahl

Mehr

Agenda. HPC-Benutzerkolloquium. EM64T-Clustererweiterung. EM64T-Clustererweiterung am RRZE

Agenda. HPC-Benutzerkolloquium. EM64T-Clustererweiterung. EM64T-Clustererweiterung am RRZE Agenda HPC-Benutzerkolloquium G. Hager/T. Zeiser 25.01.2005 RRZE EM64T-Clustererweiterung Allgemeines (GH) Zukünftige Konfiguration: Queues, Policies, Betriebsmodus (GH) Verfügbare Compiler und MPI-Versionen

Mehr

High Performance Computing

High Performance Computing REGIONALES RECHENZENTRUM ERLANGEN [RRZE] High Performance Computing Systemausbildung Grundlagen und Aspekte von Betriebssystemen und systemnahen Diensten, 21.06.2017 HPC-Gruppe, RRZE Agenda Was bedeutet

Mehr

Deep Learning Appliance 4U Die Ready-to-Brain Komplett-Lösung

Deep Learning Appliance 4U Die Ready-to-Brain Komplett-Lösung www.cadnetwork.de/deeplearning Die Ready-to-Brain Komplett-Lösung DIE KOMPLETTLÖSUNG FÜR IHRE AI PROJEKTE Die ist unser 8-GPU Flaggschiff für AI Anwendungen. Sie liefert das Potential für anspruchsvollste

Mehr

Testbericht Thomas-Krenn.AG Supermicro PDSME+

Testbericht Thomas-Krenn.AG Supermicro PDSME+ / Systembezeichnung / Product Name Open-E 2HE NAS-R3 Storage Server SATA/SAS Mainboard Chipsatz / Chipset Empfohlene CPU / Recommended CPU Supermicro X7DBE Intel 5000P (Blackford) Intel XEON Quad Core

Mehr

Das HLRN-System. Peter Endebrock, RRZN Hannover

Das HLRN-System. Peter Endebrock, RRZN Hannover Das HLRN-System Peter Endebrock, RRZN Hannover vorweg (1) Heute Vorträge im Dreierpack: Peter Endebrock: Das HLRN-System Gerd Brand: MPI Simone Knief: OpenMP Peter Endebrock, RRZN Hannover, Kolloquium,

Mehr

Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation

Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation Dr. Jan Eitzinger Regionales Rechenzentrum (RRZE) der Universität Erlangen-Nürnberg

Mehr

ODA Erfahrungen und Neuigkeiten

ODA Erfahrungen und Neuigkeiten ODA Erfahrungen und Neuigkeiten Dierk Lenz 25. Oktober 2017 Köln Oracle Database Appliance (ODA) Mitglied der Familie der Oracle Engineered Systems, d.h.: Hardware und Software (Betriebssystem, Datenbank)

Mehr

Der Front Side Bus ist eine Schnittstelle zwischen dem Hauptprozessor (CPU) und der

Der Front Side Bus ist eine Schnittstelle zwischen dem Hauptprozessor (CPU) und der Die CPU eines PC kommuniziert mit den anderen Bestandteilen des Systems über den Chipsatz. Die direkt mit der CPU verbundene Komponente des Chipsatzes wird als Northbridge bezeichnet. An die Northbridge

Mehr

M5000 einfach ablösen durch T4/T5 LDoms und Solaris Zonen

M5000 einfach ablösen durch T4/T5 LDoms und Solaris Zonen M5000 einfach ablösen durch T4/T5 LDoms und Solaris Zonen Marcel Hofstetter JomaSoft GmbH St. Gallen / Schweiz Schlüsselworte M5000, T4, T5, LDoms, Oracle Solaris 11, Solaris Zonen, VDCF Einleitung Die

Mehr

Produktnummer Produktbeschreibung Listpreis HP 2-Wege 1 GHz PA-RISC 8900 Prozessor mit 1.5 MB L1 Cache und keinem L2

Produktnummer Produktbeschreibung Listpreis HP 2-Wege 1 GHz PA-RISC 8900 Prozessor mit 1.5 MB L1 Cache und keinem L2 c8000 HP Workstation Informieren Sie sich bitte hier über die Konfigurationsmöglichkeiten. Haben Sie Fragen? Benötigen Sie ein aktuelles Angebot? Dann rufen Sie uns an, wir helfen Ihnen gerne: 06 14 6/82

Mehr

Copyright 2014 Hewlett-Packard Development Company, L.P. The information contained herein is subject to change without notice.

Copyright 2014 Hewlett-Packard Development Company, L.P. The information contained herein is subject to change without notice. Datacenter Architects Schritt für Schritt in das automatisierte Rechenzentrum mit HP Server Infrastruktur Stefan Weber Strategic Sales Consultant HP Enterprise Group Strategie Wachsende Rechenzentrumkonvergenz

Mehr

<Insert Picture Here> Oracle Exadata Database Machine: Was gibt es Neues?

<Insert Picture Here> Oracle Exadata Database Machine: Was gibt es Neues? Oracle Exadata Database Machine: Was gibt es Neues? Frank Schneede Leitender Berater, The following is intended to outline our general product direction. It is intended for information

Mehr

High Performance Computing

High Performance Computing REGIONALES RECHENZENTRUM ERLANGEN [ RRZE ] High Performance Computing Systemausbildung Grundlagen und Aspekte von Betriebssystemen und System-nahen Diensten Michael Meier, RRZE, 01.07.2015 Agenda Was bedeutet

Mehr

Opteron und I/O. Toni Schmidbauer. 11. Mai Zusammenfassung. Eine kurze Beschreibung der AMD Opteron Architektur.

Opteron und I/O. Toni Schmidbauer. 11. Mai Zusammenfassung. Eine kurze Beschreibung der AMD Opteron Architektur. Opteron und I/O Toni Schmidbauer 11. Mai 2005 Zusammenfassung Eine kurze Beschreibung der AMD Opteron Architektur Inhaltsverzeichnis 1 Allgemeines 2 2 Was ist ein Interconnect? 2 3 Traditionelles PC Chipset

Mehr

www.hocomputer.de - info@hocomputer.de - Tel: (+49) / 0221 / 76 20 86

www.hocomputer.de - info@hocomputer.de - Tel: (+49) / 0221 / 76 20 86 news 2 / 205 Nur bis 22. Dezember 0 % Sonderrabatt Details auf Seite 8 Cluster Edition named User Die komplette Dokumentation. www.hocomputer.de - info@hocomputer.de - Tel: (+49) / 022 / 76 20 86 205 h.o.-computer

Mehr

Microsoft Dynamics CRM 2016 What s New?

Microsoft Dynamics CRM 2016 What s New? Bonn, 26.04.2016 Upgrade & Ausblick Agenda 1. Lebenslauf 2. Systemanforderungen 3. Upgrade Prozess 4. Best Practice 5. Ausblick Spring Wave Release Bonn, 26.04.2016 Lebenslauf Upgrade & Ausblick Lebenslauf

Mehr

transtec Entry Level HPC Cluster

transtec Entry Level HPC Cluster Entry Level HPC Cluster Komplettes HPC Clustersystem inklusive Installation und Lieferung Nicht genug Knoten? Fragen zu dem System? Kontaktieren Sie uns unter: 01/726 60 90 oder @.at Position 1: Rack 19"

Mehr

LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610

LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610 LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610 Dominik Weinrich dominik.weinrich@tu-dresden.de Dresden, 30.11.2017 Gliederung Motivation Aufbau und Hardware

Mehr

Kirchstrasse 11 CH - 5643 Sins Telefon: 041-787 35 35 Fax: 041-787 35 32 Email: info@tinline.ch

Kirchstrasse 11 CH - 5643 Sins Telefon: 041-787 35 35 Fax: 041-787 35 32 Email: info@tinline.ch Systemanforderungen AutoCAD 2013 System-Voraussetzung Windows 32Bit Betriebssystem: Browser: Internet Explorer 7.0 oder höher. CPU Windows 7: Intel Pentium 4 or AMD Athlon dual-core processor, 3.0 GHz

Mehr

Exadata in der Champions League - Ein Fazit nach der 1. Saison Rainer Marekwia Oracle STU, Oracle Deutschland GmbH DOAG SIG DWH, München 25.

Exadata in der Champions League - Ein Fazit nach der 1. Saison Rainer Marekwia Oracle STU, Oracle Deutschland GmbH DOAG SIG DWH, München 25. Exadata in der Champions League - Ein Fazit nach der 1. Saison Rainer Marekwia Oracle STU, Oracle Deutschland GmbH DOAG SIG DWH, München 25. Juni 2009 Exadata in der Champions League

Mehr

Einfach, sicher und unfassbar schnell! IBM PureData System for Operational Analytics die DWH Appliance für DB2 Kunden

Einfach, sicher und unfassbar schnell! IBM PureData System for Operational Analytics die DWH Appliance für DB2 Kunden Einfach, sicher und unfassbar schnell! IBM PureData System for Operational Analytics die DWH Appliance für DB2 Kunden Martin Clement Leading Technical Sales Professional, Big Data Client Technical Professional,

Mehr

Parallel Computing. Einsatzmöglichkeiten und Grenzen. Prof. Dr. Nikolaus Wulff

Parallel Computing. Einsatzmöglichkeiten und Grenzen. Prof. Dr. Nikolaus Wulff Parallel Computing Einsatzmöglichkeiten und Grenzen Prof. Dr. Nikolaus Wulff Parallel Architekturen Flynn'sche Klassifizierung: SISD: single Instruction, single Data Klassisches von-neumann sequentielles

Mehr

moderne Prozessoren Jan Krüger jkrueger@techfak.uni-bielefeld.de

moderne Prozessoren Jan Krüger jkrueger@techfak.uni-bielefeld.de moderne Prozessoren Jan Krüger jkrueger@techfak.uni-bielefeld.de Übersicht FachChinesisch SPARC - UltraSparc III/IV PowerPC - PowerPC 970(G5) X86 - Pentium4(Xeon), Itanium, (Pentium M) X86 - AthlonXP/MP,

Mehr

Wissenschaftliches Rechnen in der Praxis: Hardware und Hardware-orientierte Programmierung

Wissenschaftliches Rechnen in der Praxis: Hardware und Hardware-orientierte Programmierung Wissenschaftliches Rechnen in der Praxis: Hardware und Hardware-orientierte Programmierung Dominik Göddeke dominik.goeddeke@math.tu-dortmund.de Vorlesung Wissenschaftliches Rechnen Fakultät für Mathematik

Mehr

Supercomputing 2003: Nichts geht ohne Linux

Supercomputing 2003: Nichts geht ohne Linux DECUS Symposium 2003 Supercomputing 2003: Nichts geht ohne Linux presented by Roland Fehrenbacher transtec AG Decus Symposium 2003 1 THE EUROPEAN IT FACTORY Übersicht! Linux Beowulf Cluster Ein neuer Standard

Mehr

HP IT-Symposium

HP IT-Symposium www.decus.de 1 HP User Society / DECUS IT-Symposium 2006 Mehr Hardware oder RAC? Markus.Michalewicz@oracle.com BU Database Technologies ORACLE Deutschland GmbH Grundannahmen Jedes Performance-Problem lässt

Mehr

Vertiefungsrichtung Rechnerarchitektur

Vertiefungsrichtung Rechnerarchitektur srichtung () ( für ) Prof. Dietmar Fey Ziele der srichtung RA Vertiefen des Verständnis vom Aufbau, Funktionsweise von Rechnern und Prozessoren Modellierung und Entwurf von Rechnern und Prozessoren ()

Mehr

Die deutsche Windows HPC Benutzergruppe

Die deutsche Windows HPC Benutzergruppe Christian Terboven, Dieter an Mey {terboven, anmey}@rz.rwth aachen.de Rechen und Kommunikationszentrum RWTH Aachen Windows HPC Server Launch 16. Oktober, Frankfurt am Main Agenda o Hochleistungsrechnen

Mehr

Grafikkarten-Architektur

Grafikkarten-Architektur > Grafikkarten-Architektur Parallele Strukturen in der GPU Name: Sebastian Albers E-Mail: s.albers@wwu.de 2 > Inhalt > CPU und GPU im Vergleich > Rendering-Pipeline > Shader > GPGPU > Nvidia Tesla-Architektur

Mehr

Motivation Cluster? H/W+Architektur Cluster Netzwerke OpenSource Cluster Demonstration Quellen. Cluster Netzwerke. Robert Hilbrich

Motivation Cluster? H/W+Architektur Cluster Netzwerke OpenSource Cluster Demonstration Quellen. Cluster Netzwerke. Robert Hilbrich Motivation Cluster? H/W+Architektur OpenSource Cluster Demonstration Quellen Fakultät für Informatik Humboldt Universität Berlin 21. Juli 2006 Motivation Cluster? H/W+Architektur OpenSource Cluster Demonstration

Mehr

Multi-threaded Programming with Cilk

Multi-threaded Programming with Cilk Multi-threaded Programming with Cilk Hobli Taffame Institut für Informatik Ruprecht-Karls Universität Heidelberg 3. Juli 2013 1 / 27 Inhaltsverzeichnis 1 Einleitung Warum Multithreading? Ziele 2 Was ist

Mehr

Diskless Cluster und Lustre Erfahrungsbericht zum CHiC

Diskless Cluster und Lustre Erfahrungsbericht zum CHiC Diskless Cluster und Lustre Erfahrungsbericht zum CHiC, Torsten Hoefler, Torsten Mehlan und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität

Mehr

Safe Harbor Statement

Safe Harbor Statement Safe Harbor Statement The following is intended to outline our general product direction. It is intended for information purposes only, and may not be incorporated into any contract. It is not a commitment

Mehr

Oracle Database Appliance und Virtualisierung: OVM oder KVM?

Oracle Database Appliance und Virtualisierung: OVM oder KVM? Oracle Database Appliance und Virtualisierung: OVM oder KVM? Dierk Lenz DOAG Day Datenbank in virtualisierten Umgebungen Hannover 7. März 2018 Herrmann & Lenz Services GmbH Herrmann & Lenz Solutions GmbH

Mehr

Sun HPC Agenda

Sun HPC Agenda Sun HPC 2005 - Agenda 10:00 Willkommen und Einleitung Klaus Brühl, RZ, 10:15 Neues vom Aachener Sun Fire SMP Cluster Dieter an Mey, RZ, 10:30 UltraSPARC - Today and Tomorrow Ruud van der Pas, Scalable

Mehr

SAN versus NAS für Oracle (11g) Datenbanken

SAN versus NAS für Oracle (11g) Datenbanken SAN versus NAS für Oracle (11g) Datenbanken Ing. Christian Pfundtner DB Masters GmbH Gerasdorf, bei Wien, Österreich Schlüsselworte SAN, NAS, Oracle Datenbank, Infrastruktur, Performance, iscsi, NFS, dnfs,

Mehr

Höchstleistungsrechnen in der Cloud

Höchstleistungsrechnen in der Cloud Höchstleistungsrechnen in der Cloud Michael Gienger Höchstleistungsrechenzentrum Stuttgart Stuttgart, 13.11.2018 :: :: :: Agenda Hintergrund Höchstleistungsrechnen Cloud Computing Motivation Integration

Mehr

NEC SX-ACE HPC-System

NEC SX-ACE HPC-System Erste Erfahrungen mit dem neuen System Dr. Simone Knief; ZKI-Arbeitskreis Supercomputing, Kiel 17.03.2015 1 Überblick Rechnerkonfiguration Veränderungen SX-9 zu SX-ACE Benutzergruppen Erste Performanceergebnisse

Mehr

Betrieb bei der LH München mit speziellen Rahmenbedingungen

Betrieb bei der LH München mit speziellen Rahmenbedingungen Betrieb bei der LH München mit speziellen Rahmenbedingungen 1 Klaus Barth Projektleiter ASV in München, Mitglied des ASV-Teams im BayStMBW E-Mail: klaus.barth@muenchen.de Telefon: 089 233 43 05 6 2 Agenda

Mehr

Storage Optionen für I/O intensive Applikationen

Storage Optionen für I/O intensive Applikationen Storage Optionen für I/O intensive Applikationen SSCS Team Ulm Christian Mosch, Karsten Siegmund, Jürgen Salk, Matthias Neuer, Vladimir Kushnarenko, Stefan Kombrink, Thomas Nau, Stefan Wesner Steinbuch

Mehr

Oracle und Hochverfügbarkeit Verschiedene Ansätze im Vergleich. Dierk Lenz Herrmann & Lenz Services GmbH DOAG Regio München/Südbayern 14.

Oracle und Hochverfügbarkeit Verschiedene Ansätze im Vergleich. Dierk Lenz Herrmann & Lenz Services GmbH DOAG Regio München/Südbayern 14. Oracle und Hochverfügbarkeit Verschiedene Ansätze im Vergleich Dierk Lenz Herrmann & Lenz Services GmbH DOAG Regio München/Südbayern 14. April 2014 Herrmann & Lenz Services GmbH Herrmann & Lenz Solutions

Mehr

Zum Aufwärmen nocheinmal grundlegende Tatsachen zum Rechnen mit reelen Zahlen auf dem Computer. Das Rechnen mit Gleitkommazahlen wird durch den IEEE

Zum Aufwärmen nocheinmal grundlegende Tatsachen zum Rechnen mit reelen Zahlen auf dem Computer. Das Rechnen mit Gleitkommazahlen wird durch den IEEE Zum Aufwärmen nocheinmal grundlegende Tatsachen zum Rechnen mit reelen Zahlen auf dem Computer. Das Rechnen mit Gleitkommazahlen wird durch den IEEE 754 Standard festgelegt. Es stehen sogenannte einfach

Mehr

Wissenschaftliches Rechnen an der Christian- Albrechts-Universität zu Kiel

Wissenschaftliches Rechnen an der Christian- Albrechts-Universität zu Kiel Wissenschaftliches Rechnen an der Christian- Albrechts-Universität zu Kiel ZKI-Tagung, AK Supercomputing, 16.-17.03.2015 Holger Marten Landeshauptstadt Kiel - Bodo Quante 1. Etwas Historie 16.03.2015 Dr.

Mehr

Software Engineering für moderne, parallele Plattformen

Software Engineering für moderne, parallele Plattformen Software Engineering für moderne, parallele Plattformen b. Ergänzungen zur Performanz Dr. Victor Pankratius Dr. Victor Pankratius IPD Lehrstuhl für Programmiersysteme-Tichy KIT die Kooperation von Forschungszentrum

Mehr

Beispiele von Branch Delay Slot Schedules

Beispiele von Branch Delay Slot Schedules Beispiele von Branch Delay Slot Schedules Bildquelle: David A. Patterson und John L. Hennessy, Computer Organization and Design, Fourth Edition, 2012 Grundlagen der Rechnerarchitektur Prozessor 97 Weniger

Mehr

Oracle Corporation

Oracle Corporation 1 2012 Oracle Corporation ORACLE PRODUCT LOGO Neues von Oracle Lorenz Keller Leiter Systemberatung Gut zu wissen DOAG Regionalgruppe Bremen am 20. Februar 2012 2 2012 Oracle Corporation Agenda Neue Produkte

Mehr

Leistungsanalyse von Rechnersystemen

Leistungsanalyse von Rechnersystemen Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH) Leistungsanalyse von Rechnersystemen Auf Ein-/Ausgabe spezialisierte Benchmarks Zellescher Weg 12 Willers-Bau A109 Tel. +49 351-463 - 32424

Mehr

SAN versus NAS für Oracle Datenbanken. Datenbanken sind unsere Welt

SAN versus NAS für Oracle Datenbanken. Datenbanken sind unsere Welt SAN versus NAS für Oracle Datenbanken Vortragender Christian Pfundtner Ing. Christian Pfundtner OCA, OCP, OCE, OCM, ACE Oracle Datenbank Spezialist seit 1993 Über 19 Jahre Erfahrung im Oracle Datenbank

Mehr

Datenblatt: TERRA PC-GAMER 6100 1.129,00. Gaming-PC mit 240GB SSD + AMD R9 Grafik. Zusätzliche Artikelbilder IT. MADE IN GERMANY. 25.06.

Datenblatt: TERRA PC-GAMER 6100 1.129,00. Gaming-PC mit 240GB SSD + AMD R9 Grafik. Zusätzliche Artikelbilder IT. MADE IN GERMANY. 25.06. Datenblatt: TERRA PC-GAMER 6100 Gaming-PC mit 240GB SSD + AMD R9 Grafik Herstellername: WORTMANNAG Artikel Nr.: 1001252 Referenznummer: 1001252 1.129,00 24MonateVor Ort Serviceinkl.Medieneinbehalt inkl.

Mehr

Speicher-Infrastrukturen der Zukunft Neue Technologien neue Chancen für Standardkomponenten

Speicher-Infrastrukturen der Zukunft Neue Technologien neue Chancen für Standardkomponenten Speicher-Infrastrukturen der Zukunft Neue Technologien neue Chancen für Standardkomponenten OSL Technologietage Berlin 14./15. September 2011 Bert Miemietz OSL Gesellschaft für offene Systemlösungen mbh

Mehr

Software Distributed Shared Memory. Vortrag im Rahmen des Seminars Ausgewählte Themen in Hardwareentwurf und Optik Sarah Neuwirth, 05.

Software Distributed Shared Memory. Vortrag im Rahmen des Seminars Ausgewählte Themen in Hardwareentwurf und Optik Sarah Neuwirth, 05. Software Distributed Shared Memory Vortrag im Rahmen des Seminars Ausgewählte Themen in Hardwareentwurf und Optik Sarah Neuwirth, 05. Juli 2011 Agenda 1. Motivation 2. Was ist Software Distributed Shared

Mehr

C-to-CUDA-Compiler. Johannes Kölsch. October 29, 2012

C-to-CUDA-Compiler. Johannes Kölsch. October 29, 2012 October 29, 2012 Inhaltsverzeichnis 1 2 3 4 5 6 Motivation Motivation CUDA bietet extreme Leistung für parallelisierbare Programme Kompliziert zu programmieren, da multi-level parallel und explizit verwalteter

Mehr

Dell HPC Solutions. Dieter Schuett Sr. Sales Engineer Business Development HPC

Dell HPC Solutions. Dieter Schuett Sr. Sales Engineer Business Development HPC Dell HPC Solutions Dieter Schuett Sr. Sales Engineer Business Development HPC Agenda Übersicht der PowerEdge Rack Server Übersicht der PowerEdge Blade Server Übersicht der PowerEdge C Server Infiniband

Mehr

Datenbanksysteme. Donald Kossmann TU München

Datenbanksysteme. Donald Kossmann TU München Datenbanksysteme Donald Kossmann TU München Übersicht Wie benutze ich ein Datenbanksystem? Datenmodellierung (ER, UML, Theorie) Datenbankprogrammierung (SQL) Wie baue ich ein Datenbanksystem? Anfrageoptimierung

Mehr

Vienna Scientific Cluster

Vienna Scientific Cluster Vienna Scientific Cluster Die Hochleistungsrechner der Wiener Universitäten Universität Wien, BOKU, TU Wien Herbert Störi Betreiber der Systeme Wir messen die Rechenleistung Instruktionen /Sekunde IPS,

Mehr

Infiniband Diagnose und Cluster HealthCheck Arbeitskreis Supercomputing Hamburg, 2010-03-05 Peter Niessen support@par-tec.com

Infiniband Diagnose und Cluster HealthCheck Arbeitskreis Supercomputing Hamburg, 2010-03-05 Peter Niessen support@par-tec.com ParTec Cluster Competence Center GmbH Infiniband Diagnose und Cluster HealthCheck Arbeitskreis Supercomputing Hamburg, 2010-03-05 Peter Niessen support@par-tec.com 1 JuRoPA JSC: Sun Blade SB6048 2208 Compute

Mehr