T-Systems SfR - HPCN Workshop
|
|
- Elizabeth Kästner
- vor 5 Jahren
- Abrufe
Transkript
1 HPC System Design und die Auswirkungen auf die Anwendungsperformance Thomas Alrutz HPC & escience Solutions & Innovations - Scientific & Technical ICT T-Systems Solutions for Research GmbH T-Systems SfR - HPCN Workshop
2 Motivation HPC System Design und Kennzahlen der Hardware Höchst mögliche Performance für die Ziel Anwendungen Möglichst geringe Energieaufnahme der verwendeten Komponenten Best möglicher Anschaffungspreis des Gesamtsystems Möglichst ausgewogene Total Cost of Ownership (TCO) des Gesamtsystems Kennzahlen beim Hardware Systemdesign (Maße) Stream Benchmark für Memory Bandbreite der Compute-Knoten MPI Latenz & Bandbreite des Interconnects CPU-Taktfrequenz (wichtig für die Leistungsaufnahme) Anzahl der integrierten CPU-Cores (wichtig für die pro Core Leistung) IO-Leistung paralleles Filesystem: Meta-Datenrate und Durchsatz in GB/sec T-Systems SfR - HPCN Workshop
3 Historie Installierte & betreute Clustersysteme (Knotenanzahl >> 50) 2004 DLR AT 192 Knoten SC AMD Opteron 2.4 GHz Infiniband SDR 2005 DLR AS-BS 162 Knoten SC AMD Opteron 2.6 GHz Infiniband SDR Erweiterung mit 48 DC AMD Opteron 2.4 GHz 2006 DLR AS-GÖ 84 Knoten DC AMD Opteron 2.2 GHz Infiniband SDR 2008 Erweiterung von DLR-AE mit QC AMD Barcelona 1.9 GHz HE 2007 DLR C²A²S²E 786 Knoten QC AMD Barcelona 1.9 GHz HE Infiniband SDR + GPFS 2008 Upgrade auf Infiniband DDR (Fat-Tree) 2009 DLR AS-BS 92 Knoten QC AMD Shanghai 2.6 GHz Infiniband DDR + GPFS 2009 DLR AT TRACE 200 Knoten QC Intel Nehalem 2.53 GHz Infiniband DDR + GPFS 2011 Erweiterung 150 Knoten HC Intel Westmere 2.66 GHz Infiniband QDR 2010 DLR C²A²S²E 648 Knoten HC Intel Westmere 2.93 GHz Infiniband QDR* + GPFS 2010 DLR AS-GÖ 200 Knoten HC Intel Westmere 2.66 GHz Infiniband Ql QDR + GPFS *Blockierungsfaktor von 50% bei mehr als 24 Knoten/288 Cores T-Systems SfR - HPCN Workshop
4 Kennzahlen CPUs und Interconnect Übersicht der CPU Architekturen mit Angabe der typischen Kennzahlen Socket SC AMD Opteron 2.6 GHz 10,4 GFlops 7,8 GBs Stream Triad Socket DC AMD Opteron 2.6 GHz - 20,8 GFlops - 10,2 GBs Stream Triad Socket QC AMD Opteron 2.7 GHz 86,4 GFlops - 20,7 GBs Stream Triad Socket QC Intel Nehalem 2,9 GHz 93,7 GFlops - 37,1 GBs Stream Triad Socket HC Intel Westmere 2,9 GHz 140,6 GFlops - 42 GBs Stream Triad Socket 12C AMD MagnyCours 2.2GHz -211 Gflops - 52 GBs Stream Triad Übersicht der unterschiedlichen Netzwerke mit typischen Kennzahlen 2003 Infiniband SDR 10Gbit / MPI: 800 MB/sec 2.5 usec Max 288 Ports 2006 Infiniband DDR 20Gbit / MPI: 1600 MB/sec 1.8 usec* Max 288 Ports 2009 Infiniband QDR 40Gbit / MPI: 3200 MB/sec 1.5 usec * Max 384 Ports 2010 Infiniband QDR Qlogic 40Gbit / MPI: 3200 MB/sec 1.5 usec Max 384 Ports *Nur mit ConnectX HCA Adaptern erzielbar T-Systems SfR - HPCN Workshop
5 Beispiel Systemdesign Neubeschaffung Cluster für DLR Institut AS-GÖ/AS-Fluidsysteme Harte Anforderungen an den neuen HPC-Cluster Mindestens Quad-Core Prozessortechnologie auf x86-64 Basis Hohe Memory Bandbreite bei moderatem CPU-Takt (Strom) Netzwerk QDR Infiniband Interconnect Paralleles GPFS Filesystem mit 320 TB und 2 GB/sec Durchsatz 200 Compute-Knoten mit je 24 GB (60) bzw. 48 GB (140) RAM Wasserkühlung der kompletten Compute-Racks (max. 200 kw) Luftkühlung der Infrastruktur-Racks (max. 50 kw) Maximale Stromaufnahme bis zu 250 kw Aufteilung des Systems in zwei voneinander getrennte Cluster bei Benutzung einer gemeinsamen Infrastruktur T-Systems SfR - HPCN Workshop
6 Anforderungsanalyse Applikationsmix Nutzung des Clusters durch verschiedene Applikationen erschwert die Entscheidung für eine homogene Architektur Für die Ausschreibung muss ein geeignetes Benchmarkszenario ausgewählt werden um die Applikationsanforderungen möglichst gut zu treffen Applikationsauswahl nach Nutzung auf dem alten Instituts-Cluster DLR TAU-Code (RANS/DES) kompressibel & inkompressibel DLR FLOWSI-Code (LES/DNS) OpenFOAM (Versionen 1.5, 1.6, 1.7) StarCD, StarCCM+ PIV-Bildauswertung T-Systems SfR - HPCN Workshop
7 Anforderungsanalyse Applikationsmatrix Code CPU-Takt Memory Bandbreite Memory Ausbau Netzwerk Latenz Netzwerk Bandbreite Skalierbarkeit Filesystem TAU Hoch Sehr Hoch Mittel Sehr Hoch Niedrig Hoch Mittel FLOWSI Hoch Sehr Hoch Mittel Mittel Hoch Mittel Sehr Hoch OpenFOAM Hoch Sehr Hoch Hoch Mittel Niedrig Niedrig Sehr Hoch Andere Einflussfaktoren TAU C-Code: Performanceunterschied icc/gcc Compiler ~ 10% FLOWSI Fortran-Code: Performanceunterschied ~ 20% - 30% TAU profitiert aufgrund der hohen Skalierbarkeit auch von einer hohen Message-Rate des Netzwerks FLOWSI profitiert bei der statistischen Auswertung (massiver FileIO) von einer hohen Meta-Datenrate des parallelen Filesystems T-Systems SfR - HPCN Workshop
8 Anforderungsanalyse Definition der Benchmarks für die Ausschreibung/Abnahme Aus der Applikationsmatrix sind folgende Benchmarks abgeleitet: 1. FLOWSI - Test A1Ra8N - Parallelität 128 Cores Iterationen, Storage 12GB, IO- LAST: 8,1 GB pro 200 Iterationen (write), 4 GB pro 1000 Iterationen (read & write) 2. TAU Rel p4 - Test DLR F6 DPW II half Case - Parallelität 96 Cores Iterationen Runge-Kutta, 4w, KW Turbulenzmodell, Storage 3.5GB, IO-Last 1,05 GB pro 1000 Iterationen 3. TAU Rel p4 - Test DLR F6 DPW II full Case - Parallelität 120 Cores Iterationen LU-SGS, 3v, KW Turbulenzmodell - Storage 84 GB, IO-Last 2,1 GB alle 25 Iterationen 4. Nachweis der 2GB/s Durchsatz des Filesystems durch Benchmark 3 über 10 Läufe gemittelt Zugesagte Performance muss von Bietern eingehalten werden T-Systems SfR - HPCN Workshop
9 Performancevergleich der neueren Systeme Grundlage: Benchmarks für Stream und Applikation System Stream FLOWSI A1Ra8N Barcelona 1.9 GHz Infiniband SDR Mellanox Nehalem 2.53 GHz Infiniband DDR Mellanox Westmere 2.93 GHz Infiniband QDR Mellanox TAU half RK 4w TAU full LUSGS 3v Faktor 14 GB/s 9008s 11963s -/- 1,0 32 GB/s 3032s 5256s 3562s 2,27-2,97 36 GB/s 2634s 5323s 3009s 2,24-3,42 Westmere 2.93 GHz Infiniband QDR Mellanox* Westmere 2.66 GHz Infiniband QDR Qlogic 41 GB/s 2635s 4867s 2253s 2,46-3,42 41 GB/s 2165s 4564s 2640s 2,62-4,16 Steigerung der Anwendungsperformance FLOWSI um den Faktor 4,1 Steigerung der Anwendungsperformance TAU um den Faktor 2,6 *Blockierungsfaktor von 50% bei mehr als 24 Knoten/288 Cores T-Systems SfR - HPCN Workshop
10 Analyse der Benchmark Resultate FLOWSI Benchmark profitiert vor allem von dem schnellen GPFS (3,3 GB/sec) Das 2.66 GHz System ist ca. 22% schneller als die 2.93 GHz Westmere Systeme Kein Unterschied zwischen den beiden schnelleren Westmere obwohl die Memory Bandbreite unterschiedlich ist. TAU profitiert klar von dem schnellen Interconnect (IB QDR-Qlogic) Bei Benchmark 2. (96 Cores) ist das 2.66 GHz 6,6%-16% schneller Bei Benchmark 3. (120 Cores) ist der 2.66 GHz 15% langsamer/14% schneller Offene Fragen : Warum schneiden die beiden 2.93GHz Westmere Systeme bei dem Benchmark Nr. 2 nicht so gut ab? 50% Blocking Faktor, Fat-Tree Architektur oder Message-Rate des Interconnects? T-Systems SfR - HPCN Workshop
11 Untersuchung der Abhängigkeit der Anwendungsperformance vom Interconnect 1. Benchmark Nr. 2 für Skalierungsrechnungen heranziehen (F6 DPW II 15.6 *10 6 ) 2. Kleineren Benchmarkfall (2*10 6 ) zur Verifikation (F6) Hohe Kommunikation 3. TAU-Version (2010) mit Verbesserungen bzgl. des Kommunikationsbedarfs 4. Einfluß des parallelen GPFS System möglichst gering alten während der Tests 5. Testsysteme im Produktionsmodus laufen lassen 1. 3 Westmere Systeme alle QDR 2. 1 Nehalem System mit DDR 6. Settings der Benchmarks mit den Standard Partitionierer von TAU (RCB) 7. Vergleichsberechnung mit der MPI Rank-Optimierung von TAU* 8. Andere Überlegungen zur Verbesserung * Rank Reordering for MPI Communication Optimization B. Brandfass DLR-AS C²A²S²E T-Systems SfR - HPCN Workshop
12 Vergleich der Knoten Performance mit TAU auf den Cluster Systemen Test der Basis Performance eines Knotens Klarer Vorteil für den schnellen Westmere mit hoher Memory Bandbreite Die Taktfrequenz spielt für die Performance von Tau eine untergeordnete Rolle System Stream TAU F6 15M RK 4w 200 Iter. Nehalem 2.53 GHz 8 Cores Infiniband DDR Mellanox Westmere 2.93 GHz 12 Cores Infiniband QDR Mellanox 32 GB/s -/- 226,6s 36 GB/s 2421,0s 181,6s TAU F6 2M RK 4w 100 Iter. Westmere 2.93 GHz 12 Cores Infiniband QDR Mellanox* Westmere 2.66 GHz 12 Cores Infiniband QDR Qlogic 41 GB/s 2322,9s 164,4s 41 GB/s 2387,2s 166,8s T-Systems SfR - HPCN Workshop
13 Ergebnisse der Skalierungsuntersuchungen F6 15M T-Systems SfR - HPCN Workshop
14 Ergebnisse der Skalierungsuntersuchungen F6 15M T-Systems SfR - HPCN Workshop
15 Ergebnisse der Skalierungsuntersuchungen F6 2M T-Systems SfR - HPCN Workshop
16 Was kann man nun tun um diese Bottlenecks zu beseitigen MPI Rank Reordering zur Kommunikationsoptimierung Idee Knoten interne Kommunikation ist meistens schneller als Knoten externe Aufgrund der Präsenz der Multi-Core Architekturen (>=12 Cores/Node) interessant Vorteil: Keinerlei Änderung im CFD-Solver Beispiel: MPI Kommunikationsmatrizen *Rank Reordering for MPI Communication Optimization B. Brandfass, T. Alrutz,, T. Gerhold ParCFD 2011 T-Systems SfR - HPCN Workshop
17 Ergebnisse der Skalierung MPI-Rank Optimierung F6 15M T-Systems SfR - HPCN Workshop
18 Ergebnisse der Skalierung MPI-Rank Optimierung F6 15M T-Systems SfR - HPCN Workshop
19 Ergebnisse der Skalierung MPI-Rank Optimierung F6 2M T-Systems SfR - HPCN Workshop
20 Was kann man nun noch tun I Graph Partitionierer statt RCB verwenden Graph Partitionierer reduzieren ide Anzahl der Kommunikationsnachbarn erheblich Beispiel: Skalierung RCB gegen Zoltan (Sandia) TAU 2011 mit 7 *10 6 Punkte* * Rank Reordering for MPI Communication Optimization B. Brandfass DLR-AS C²A²S²E ParCFD 2011 T-Systems SfR - HPCN Workshop
21 Was kann man nun noch tun II Hybride Parallelisierung MPI + OpenMP / Pthreads Hybride Parallelisierung reduziert die Anzahl der MPI-Domains und damit des Overheads Beispiel: TAU-HiCFD Prototyp (RCB) Fall DLR F6 2*10 6 Punkte* * HiCFD Prototyp von J Jägersküpper DLR-C²A²S²E T-Systems SfR - HPCN Workshop
22 Was kann man nun noch tun III Hybride Parallelisierung MPI + OpenMP / Pthreads + SIMD SIMD Parallelisierung nutzt die SSE Einheiten auf den CPUs effizient Beispiel: TAU-HiCFD Prototyp (RCB) SIMD Fall DLR F6 2*10 6 Punkte* * SIMD HiCFD Prototyp von J Jägersküpper, T. Alrutz, O. Krzikalla T-Systems SfR - HPCN Workshop
23 Zusammenfassung MPI Latenz und Bandbreite sind nicht unbedingt die wichtigsten Kennzahlen Die Durchsatzrate der MPI-Messages ist viel entscheidender für Strong-Scaling Graph-Partitionierer sind enorm wichtig für die Skalierung Richtige MPI-Task Platzierung ist enorm wichtig Schnelle MPI Bibliothek ist auch extrem wichtig Am Ende geht nichts über die Vermeidung von Kommunikation übers Netzwerk Hybriden Ansätzen gehört die Zukunft PGAS ist hierzu eventuell die richtige Technologie Wer das alles nicht hat, braucht einen schnellen Interconnect mit hoher Message Rate T-Systems SfR - HPCN Workshop
24 Vielen Dank für Ihre Aufmerksamkeit T-Systems SfR - HPCN Workshop
HPC an der Uni Mainz
Einwicklung vom ersten Top500 Rechner bis zum AHRP HPC - AHRP - ZKI Markus Tacke, ZDV, Universität Mainz AK Supercomputer Kaiserslautern 19.4.2012 ZDV: CC NUMA 1.1.1995: Convex SPP1000/16 16 PA Risc 7100
MehrGeorg Hager Regionales Rechenzentrum Erlangen (RRZE)
Erfahrungen und Benchmarks mit Dual- -Prozessoren Georg Hager Regionales Rechenzentrum Erlangen (RRZE) ZKI AK Supercomputing Karlsruhe, 22./23.09.2005 Dual : Anbieter heute IBM Power4/Power5 (Power5 mit
MehrAusblick auf den HLRN III - die neue HPC Ressource für Norddeutschland
Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 14. März 2013
Mehrmagnitude Erste Erfahrungen mit dem neuen HPC-System der UDE
magnitude Erste Erfahrungen mit dem neuen HPC-System der UDE ZKI-AK Supercomputing Holger Gollan Agenda Die Universität Duisburg-Essen (UDE) Das Zentrum für Informations- und Mediendienste (ZIM Das Center
MehrMatrix Transposition mit gaspi_read_notify. Vanessa End HPCN Workshop 11. Mai 2016
Matrix Transposition mit gaspi_read_notify Vanessa End HPCN Workshop 11. Mai 2016 Überblick Motivation Matrix Transposition GASPI Matrix Transposition in GASPI Zusammenfassung und Ausblick 2 Motivation
MehrLinux in allen Lebenslagen. Diskless Cluster und Lustre Erfahrungsbericht zum CHiC. Frank Mietke. Chemnitzer Linux-Tage 2007
Linux in allen Lebenslagen Diskless Cluster und Lustre Erfahrungsbericht zum CHiC Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität Chemnitz Chemnitzer
MehrColdCon mini MUC ein MEGWARE-Projekt am LRZ Garching
ColdCon mini MUC ein MEGWARE-Projekt am LRZ Garching Weltweit 1. direktwassergekühlter AMD-Cluster von MEGWARE Jörg Heydemüller Unternehmensprofil Gründung 1990 in Chemnitz Sachsen rund 60 hoch ausgebildete,
MehrInfiniband Kopplung Heidelberg Mannheim
Infiniband Kopplung Heidelberg Mannheim Tests aktueller Komponenten und Pläne für den Ausbau S. Richling, S. Friedel (Universität Heidelberg) S. Hau, H. Kredel (Universität Mannheim) Förderträger: www.bwhpc-c5.de
MehrCLAIX Vorstellung und Technik Christian Terboven
CLAIX Vorstellung und Technik Christian Terboven Inhalte CLAIX Phase I Zwei Rack-Reihen + 2 Schränke Testbetrieb mit Projekten seit November 2016 Trier-2 HPC-System Abnahme im Januar 2017 TOP500 im November
MehrHLRN III - HPC Ressource für Norddeutschland
HLRN III - HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 23. September 2014 Inhalt Der HLRN Verbund
MehrCHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm
CHiC er Hochleistungs-Linux Cluster Stand HPC Cluster CHiC, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität
MehrOracle Real Application Cluster
Oracle Real Application Cluster Björn Bröhl OPITZ CONSULTING Gummersbach GmbH Seite 1 Übersicht Die RAC Architektur RAC Komponenten (Hard- und Software) Oracle Cluster Filesystem vs. Oracle Automatic Storage
MehrNeue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP)
Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP) @wefinet Werner Fischer, Thomas-Krenn.AG Webinar, 17. Oktober 2017 Intel Xeon Scalable Performance _ Das ist NEU: Neue
MehrPerformance Engineering: Forschung und Dienstleistung für HPC-Kunden. Dirk Schmidl
Performance Engineering: Forschung und Dienstleistung für HPC-Kunden Hardware Komplexität GPU KNL MPI L U S T R E SMP Claix NVMe HOME Storage OPA Die Komplexität moderner HPC Systeme erfordert Optimierung
MehrRST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck
RST-Labor WS06/07 GPGPU General Purpose Computation On Graphics Processing Units (Grafikkarten-Programmierung) Von: Marc Blunck Ablauf Einführung GPGPU Die GPU GPU Architektur Die Programmierung Programme
MehrSeminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit OpenMP 4.5 und OpenACC 2.5 im Vergleich
Seminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit Direktivenbasierte Programmierung von Beschleunigern mit Agenda Einführung / Motivation Überblick zu OpenMP und OpenACC Asynchronität
MehrHochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner. Dr. Andreas Wolf. Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum
Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Überblick Randbedingungen der HPC Beschaffung an der
MehrOptimierungen der Lattice Boltzmann Methode auf x86-64 basierten Architekturen
Optimierungen der Lattice Boltzmann Methode auf x86-64 basierten Architekturen J. Treibig, S. Hausmann, U. Ruede 15.09.05 / ASIM 2005 - Erlangen Gliederung 1 Einleitung Motivation Grundlagen 2 Optimierungen
MehrDer neue Hessische Hochleistungsrechner HHLR
Der neue Hessische Hochleistungsrechner HHLR Erste Erfahrungen Norbert Conrad, conrad@hrz.tu-darmstadt.de ZKIHessen 26.8.2002 1 Darmstädter Hochleistungsrechner 1987: IBM 3090 VF ( 2 x 0,12 GFLOPS Vektor
MehrRuprecht-Karls-Universität Heidelberg
Ruprecht-Karls-Universität Heidelberg PS: Themen der technischen Informatik Sommersemester 2013 Referentin: Hanna Khoury Betreuer: Prof. Dr. Ulrich Brüning, Dr. Frank Lemke Datum: 10.06.2014 1) Einige
MehrStorage-Zugriffsoptimierung mit QFS für TanDEM-X im DLR
Storage-Zugriffsoptimierung mit QFS für TanDEM-X im DLR Matthias Rumitz, dignum 27.05.2011 Das Projekt TanDEM-X wird anteilig durch das Bundesministerium für Wirtschaft und Technologie gefördert (Förderkennzeichen
Mehr2 Rechnerarchitekturen
2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf
MehrEffektive Nutzung der Simulationsumgebung Anregungen für die Praxis
1 2017 ANSYS, 14. Inc. Juni 2017 in June Winterthur 20, 2017 22. SCHWEIZER CADFEM ANSYS SIMULATION CONFERENCE Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis Martin Mann Sales & Acount
MehrHigh Performance Computing am Fraunhofer ITWM
High Performance Computing am Fraunhofer ITWM FhGFS Zielsetzung und Einsatzszenarien 4. März 2010 ZKI Arbeitskreis Supercomputing Dr. Franz-Josef Pfreundt Competence Center for HPC Fraunhofer Institut
MehrRRZE Benchmark Suite: Eine standardisierte Benchmarkumgebung für Ausschreibungen und Evaluierungen
RRZE Benchmark Suite: Eine standardisierte Benchmarkumgebung für Ausschreibungen und Evaluierungen J. Treibig RRZE, Friedrich-Alexander-Universität Erlangen-Nürnberg 20.05.2011 Überblick Anwendung: Vorgeschriebene
MehrMOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz
MOGON Markus Tacke HPC ZDV HPC - AHRP Was ist Mogon allgemein? Das neue High Performance Cluster der JGU Ein neues wichtiges Werkzeug für Auswertung von Messdaten und Simulationen Beispiele Kondensierte
MehrZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf
ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012 Scientific Computing in Düsseldorf Peter Schreiber schreiber@hhu.de 0211-81-13913 http://www.zim.hhu.de ZKI Arbeitskreis Supercomputing 20.-21.09.2012
MehrDas Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ
Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ Hinnerk Stüben ZKI-Arbeitskreis Supercomputing Leibniz-Rechenzentrum, Garching 19. Oktober 2015 Themen Neues HPC-Cluster
MehrTecNews: Sandy Bridge
TecNews: Sandy Bridge Werner Fischer, Technology Specialist Thomas-Krenn.AG Thomas Krenn Herbstworkshop & Roadshow 2011 23.09. in Freyung 06.10. in Wien (A) 10.10. in Frankfurt 11.10. in Düsseldorf 12.10.
MehrLeistungsanalyse von Rechnersystemen
Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH) Leistungsanalyse von Rechnersystemen Auf Ein-/Ausgabe spezialisierte Benchmarks Zellescher Weg 12 Willers-Bau A109 Tel. +49 351-463 - 32424
MehrTitelmasterformat durch Klicken bearbeiten
Titelmasterformat durch Klicken Titelmasterformat durch Klicken Huawei Enterprise Server Systeme Global Player auf dem Server- und Storagemarkt Scale up Übersicht Titelmasterformat durch Klicken Textmasterformat
MehrGPGPUs am Jülich Supercomputing Centre
GPGPUs am Jülich Supercomputing Centre 20. April 2012 Jochen Kreutz Jülich Supercomputing Centre (JSC) Teil des Forschungszentrums Jülich und des Institute for Advanced Simulation (IAS) betreibt Supercomputer
MehrWell-Balanced. Performance Tuning
Well-Balanced Real Application Cluster Performance Tuning Über mich virtual7 GmbH Jürgen Bouché Zeppelinstraße 2 76185 Karlsruhe Tel.: +49 (721) 6190170 Fax.: +49 (721) 61901729 Email: jbouche@heine.de
MehrEinsatz von GPFS an der JGU
Einsatz von GPFS an der JGU HPC@JGU Markus Tacke Leiter HPC ZDV Johannes Gutenberg-Universität Mainz Was Kommt? Umfeld JGU Historie HPC@JGU und seine Daten Aufgabe ATLAS I/O Lösung GPFS!! Ergebnisse.(wird
MehrHYPER-CONVERGED INFRASTRUCTURE. Höhere Performance Reduzierte Ausfallzeiten Verbesserte Auslastung Niedrigere Kosten
HYPER-CONVERGED INFRASTRUCTURE Höhere Performance Reduzierte Ausfallzeiten Verbesserte Auslastung Niedrigere Kosten 2 HYPER-CONVERGED INFRASTRUCTURE Infrastrukturlösung mit Die Software läuft direkt auf
Mehrparat. AMDs x86-prozessoren bieten hierfür das 3
Link: https://www.tecchannel.de/a/windows-7-xp-mode-performance-und-einschraenkungen,2018717 Benchmark-Test Windows 7 XP Mode - Performance und Einschränkungen Datum: Autor(en): 22.10.2009 Christian Vilsbeck
MehrBeispielvortrag: HPCG auf Intel Haswell-EP
Beispielvortrag: HPCG auf Intel Haswell-EP Johannes Hofmann 1 Seminarvortrag Architekturen von Multi- und Vielkern-Prozessoren Erlangen, 19.4.2016 1 Computer Architecture, University Erlangen-Nuremberg
MehrErste Erfahrungen mit Installation und Betrieb
Erste Erfahrungen mit Installation und Betrieb von OpenHPC 14.10.2016 Holger Angenent Röntgenstr. 7-13, 48149 Münster 2 > Problemstellung Jeder neue Cluster kam bisher mit neuem Clustermanagement Einarbeitungszeit
MehrANALYSE DER LATENZEN IM KOMMUNIKATIONSSTACK EINES PCIE-GEKOPPELTEN FPGA-BESCHLEUNIGERS. Sascha Kath
ANALYSE DER LATENZEN IM KOMMUNIKATIONSSTACK EINES PCIE-GEKOPPELTEN FPGA-BESCHLEUNIGERS Sascha Kath Dresden, Gliederung 1. Motivation & Zielstellung 2. Systembeschreibung 3. Implementierung und Messungen
MehrErfahrungen mit LSF an der RWTH. Eine kurze Geschichte der LoadSharingFacility
Erfahrungen mit LSF an der RWTH Eine kurze Geschichte der LoadSharingFacility Zeitlinie 2011 Wechsel SGE -> LSF, Bull Cluster, GPU-Cluster 2012 JARA-HPC 2014 Projektbewirtschaftung RWTH 2016 NEC Cluster
MehrSimulation der instationären Strömung in einem Diffusionsofen mit Wärmestrahlung
Simulation der instationären Strömung in einem Diffusionsofen mit Wärmestrahlung R. Kessler DLR-AS-CASE Simulation der instationären Strömung in einem Diffusionsofen mit Wärmestrahlung Slide 1 > HPC 2009
MehrDOAG Konferenz 2007 in Nürnberg
DOAG Konferenz 2007 in Nürnberg Auswahl und Sizing: Die richtige Hardware (+Software) für Oracle Björn Bröhl Projektmanager Handlungsbevollmächtigter Seite 1 Inhalt Die Zielsetzung Vorgehensweise Auswahl
MehrAgenda. HPC-Benutzerkolloquium. EM64T-Clustererweiterung. EM64T-Clustererweiterung am RRZE
Agenda HPC-Benutzerkolloquium G. Hager/T. Zeiser 25.01.2005 RRZE EM64T-Clustererweiterung Allgemeines (GH) Zukünftige Konfiguration: Queues, Policies, Betriebsmodus (GH) Verfügbare Compiler und MPI-Versionen
MehrHigh Performance Computing
REGIONALES RECHENZENTRUM ERLANGEN [RRZE] High Performance Computing Systemausbildung Grundlagen und Aspekte von Betriebssystemen und systemnahen Diensten, 21.06.2017 HPC-Gruppe, RRZE Agenda Was bedeutet
MehrDeep Learning Appliance 4U Die Ready-to-Brain Komplett-Lösung
www.cadnetwork.de/deeplearning Die Ready-to-Brain Komplett-Lösung DIE KOMPLETTLÖSUNG FÜR IHRE AI PROJEKTE Die ist unser 8-GPU Flaggschiff für AI Anwendungen. Sie liefert das Potential für anspruchsvollste
MehrTestbericht Thomas-Krenn.AG Supermicro PDSME+
/ Systembezeichnung / Product Name Open-E 2HE NAS-R3 Storage Server SATA/SAS Mainboard Chipsatz / Chipset Empfohlene CPU / Recommended CPU Supermicro X7DBE Intel 5000P (Blackford) Intel XEON Quad Core
MehrDas HLRN-System. Peter Endebrock, RRZN Hannover
Das HLRN-System Peter Endebrock, RRZN Hannover vorweg (1) Heute Vorträge im Dreierpack: Peter Endebrock: Das HLRN-System Gerd Brand: MPI Simone Knief: OpenMP Peter Endebrock, RRZN Hannover, Kolloquium,
MehrEine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation
Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation Dr. Jan Eitzinger Regionales Rechenzentrum (RRZE) der Universität Erlangen-Nürnberg
MehrODA Erfahrungen und Neuigkeiten
ODA Erfahrungen und Neuigkeiten Dierk Lenz 25. Oktober 2017 Köln Oracle Database Appliance (ODA) Mitglied der Familie der Oracle Engineered Systems, d.h.: Hardware und Software (Betriebssystem, Datenbank)
MehrDer Front Side Bus ist eine Schnittstelle zwischen dem Hauptprozessor (CPU) und der
Die CPU eines PC kommuniziert mit den anderen Bestandteilen des Systems über den Chipsatz. Die direkt mit der CPU verbundene Komponente des Chipsatzes wird als Northbridge bezeichnet. An die Northbridge
MehrM5000 einfach ablösen durch T4/T5 LDoms und Solaris Zonen
M5000 einfach ablösen durch T4/T5 LDoms und Solaris Zonen Marcel Hofstetter JomaSoft GmbH St. Gallen / Schweiz Schlüsselworte M5000, T4, T5, LDoms, Oracle Solaris 11, Solaris Zonen, VDCF Einleitung Die
MehrProduktnummer Produktbeschreibung Listpreis HP 2-Wege 1 GHz PA-RISC 8900 Prozessor mit 1.5 MB L1 Cache und keinem L2
c8000 HP Workstation Informieren Sie sich bitte hier über die Konfigurationsmöglichkeiten. Haben Sie Fragen? Benötigen Sie ein aktuelles Angebot? Dann rufen Sie uns an, wir helfen Ihnen gerne: 06 14 6/82
MehrCopyright 2014 Hewlett-Packard Development Company, L.P. The information contained herein is subject to change without notice.
Datacenter Architects Schritt für Schritt in das automatisierte Rechenzentrum mit HP Server Infrastruktur Stefan Weber Strategic Sales Consultant HP Enterprise Group Strategie Wachsende Rechenzentrumkonvergenz
Mehr<Insert Picture Here> Oracle Exadata Database Machine: Was gibt es Neues?
Oracle Exadata Database Machine: Was gibt es Neues? Frank Schneede Leitender Berater, The following is intended to outline our general product direction. It is intended for information
MehrHigh Performance Computing
REGIONALES RECHENZENTRUM ERLANGEN [ RRZE ] High Performance Computing Systemausbildung Grundlagen und Aspekte von Betriebssystemen und System-nahen Diensten Michael Meier, RRZE, 01.07.2015 Agenda Was bedeutet
MehrOpteron und I/O. Toni Schmidbauer. 11. Mai Zusammenfassung. Eine kurze Beschreibung der AMD Opteron Architektur.
Opteron und I/O Toni Schmidbauer 11. Mai 2005 Zusammenfassung Eine kurze Beschreibung der AMD Opteron Architektur Inhaltsverzeichnis 1 Allgemeines 2 2 Was ist ein Interconnect? 2 3 Traditionelles PC Chipset
Mehrwww.hocomputer.de - info@hocomputer.de - Tel: (+49) / 0221 / 76 20 86
news 2 / 205 Nur bis 22. Dezember 0 % Sonderrabatt Details auf Seite 8 Cluster Edition named User Die komplette Dokumentation. www.hocomputer.de - info@hocomputer.de - Tel: (+49) / 022 / 76 20 86 205 h.o.-computer
MehrMicrosoft Dynamics CRM 2016 What s New?
Bonn, 26.04.2016 Upgrade & Ausblick Agenda 1. Lebenslauf 2. Systemanforderungen 3. Upgrade Prozess 4. Best Practice 5. Ausblick Spring Wave Release Bonn, 26.04.2016 Lebenslauf Upgrade & Ausblick Lebenslauf
Mehrtranstec Entry Level HPC Cluster
Entry Level HPC Cluster Komplettes HPC Clustersystem inklusive Installation und Lieferung Nicht genug Knoten? Fragen zu dem System? Kontaktieren Sie uns unter: 01/726 60 90 oder @.at Position 1: Rack 19"
MehrLEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610
LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610 Dominik Weinrich dominik.weinrich@tu-dresden.de Dresden, 30.11.2017 Gliederung Motivation Aufbau und Hardware
MehrKirchstrasse 11 CH - 5643 Sins Telefon: 041-787 35 35 Fax: 041-787 35 32 Email: info@tinline.ch
Systemanforderungen AutoCAD 2013 System-Voraussetzung Windows 32Bit Betriebssystem: Browser: Internet Explorer 7.0 oder höher. CPU Windows 7: Intel Pentium 4 or AMD Athlon dual-core processor, 3.0 GHz
MehrExadata in der Champions League - Ein Fazit nach der 1. Saison Rainer Marekwia Oracle STU, Oracle Deutschland GmbH DOAG SIG DWH, München 25.
Exadata in der Champions League - Ein Fazit nach der 1. Saison Rainer Marekwia Oracle STU, Oracle Deutschland GmbH DOAG SIG DWH, München 25. Juni 2009 Exadata in der Champions League
MehrEinfach, sicher und unfassbar schnell! IBM PureData System for Operational Analytics die DWH Appliance für DB2 Kunden
Einfach, sicher und unfassbar schnell! IBM PureData System for Operational Analytics die DWH Appliance für DB2 Kunden Martin Clement Leading Technical Sales Professional, Big Data Client Technical Professional,
MehrParallel Computing. Einsatzmöglichkeiten und Grenzen. Prof. Dr. Nikolaus Wulff
Parallel Computing Einsatzmöglichkeiten und Grenzen Prof. Dr. Nikolaus Wulff Parallel Architekturen Flynn'sche Klassifizierung: SISD: single Instruction, single Data Klassisches von-neumann sequentielles
Mehrmoderne Prozessoren Jan Krüger jkrueger@techfak.uni-bielefeld.de
moderne Prozessoren Jan Krüger jkrueger@techfak.uni-bielefeld.de Übersicht FachChinesisch SPARC - UltraSparc III/IV PowerPC - PowerPC 970(G5) X86 - Pentium4(Xeon), Itanium, (Pentium M) X86 - AthlonXP/MP,
MehrWissenschaftliches Rechnen in der Praxis: Hardware und Hardware-orientierte Programmierung
Wissenschaftliches Rechnen in der Praxis: Hardware und Hardware-orientierte Programmierung Dominik Göddeke dominik.goeddeke@math.tu-dortmund.de Vorlesung Wissenschaftliches Rechnen Fakultät für Mathematik
MehrSupercomputing 2003: Nichts geht ohne Linux
DECUS Symposium 2003 Supercomputing 2003: Nichts geht ohne Linux presented by Roland Fehrenbacher transtec AG Decus Symposium 2003 1 THE EUROPEAN IT FACTORY Übersicht! Linux Beowulf Cluster Ein neuer Standard
MehrHP IT-Symposium
www.decus.de 1 HP User Society / DECUS IT-Symposium 2006 Mehr Hardware oder RAC? Markus.Michalewicz@oracle.com BU Database Technologies ORACLE Deutschland GmbH Grundannahmen Jedes Performance-Problem lässt
MehrVertiefungsrichtung Rechnerarchitektur
srichtung () ( für ) Prof. Dietmar Fey Ziele der srichtung RA Vertiefen des Verständnis vom Aufbau, Funktionsweise von Rechnern und Prozessoren Modellierung und Entwurf von Rechnern und Prozessoren ()
MehrDie deutsche Windows HPC Benutzergruppe
Christian Terboven, Dieter an Mey {terboven, anmey}@rz.rwth aachen.de Rechen und Kommunikationszentrum RWTH Aachen Windows HPC Server Launch 16. Oktober, Frankfurt am Main Agenda o Hochleistungsrechnen
MehrGrafikkarten-Architektur
> Grafikkarten-Architektur Parallele Strukturen in der GPU Name: Sebastian Albers E-Mail: s.albers@wwu.de 2 > Inhalt > CPU und GPU im Vergleich > Rendering-Pipeline > Shader > GPGPU > Nvidia Tesla-Architektur
MehrMotivation Cluster? H/W+Architektur Cluster Netzwerke OpenSource Cluster Demonstration Quellen. Cluster Netzwerke. Robert Hilbrich
Motivation Cluster? H/W+Architektur OpenSource Cluster Demonstration Quellen Fakultät für Informatik Humboldt Universität Berlin 21. Juli 2006 Motivation Cluster? H/W+Architektur OpenSource Cluster Demonstration
MehrMulti-threaded Programming with Cilk
Multi-threaded Programming with Cilk Hobli Taffame Institut für Informatik Ruprecht-Karls Universität Heidelberg 3. Juli 2013 1 / 27 Inhaltsverzeichnis 1 Einleitung Warum Multithreading? Ziele 2 Was ist
MehrDiskless Cluster und Lustre Erfahrungsbericht zum CHiC
Diskless Cluster und Lustre Erfahrungsbericht zum CHiC, Torsten Hoefler, Torsten Mehlan und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität
MehrSafe Harbor Statement
Safe Harbor Statement The following is intended to outline our general product direction. It is intended for information purposes only, and may not be incorporated into any contract. It is not a commitment
MehrOracle Database Appliance und Virtualisierung: OVM oder KVM?
Oracle Database Appliance und Virtualisierung: OVM oder KVM? Dierk Lenz DOAG Day Datenbank in virtualisierten Umgebungen Hannover 7. März 2018 Herrmann & Lenz Services GmbH Herrmann & Lenz Solutions GmbH
MehrSun HPC Agenda
Sun HPC 2005 - Agenda 10:00 Willkommen und Einleitung Klaus Brühl, RZ, 10:15 Neues vom Aachener Sun Fire SMP Cluster Dieter an Mey, RZ, 10:30 UltraSPARC - Today and Tomorrow Ruud van der Pas, Scalable
MehrSAN versus NAS für Oracle (11g) Datenbanken
SAN versus NAS für Oracle (11g) Datenbanken Ing. Christian Pfundtner DB Masters GmbH Gerasdorf, bei Wien, Österreich Schlüsselworte SAN, NAS, Oracle Datenbank, Infrastruktur, Performance, iscsi, NFS, dnfs,
MehrHöchstleistungsrechnen in der Cloud
Höchstleistungsrechnen in der Cloud Michael Gienger Höchstleistungsrechenzentrum Stuttgart Stuttgart, 13.11.2018 :: :: :: Agenda Hintergrund Höchstleistungsrechnen Cloud Computing Motivation Integration
MehrNEC SX-ACE HPC-System
Erste Erfahrungen mit dem neuen System Dr. Simone Knief; ZKI-Arbeitskreis Supercomputing, Kiel 17.03.2015 1 Überblick Rechnerkonfiguration Veränderungen SX-9 zu SX-ACE Benutzergruppen Erste Performanceergebnisse
MehrBetrieb bei der LH München mit speziellen Rahmenbedingungen
Betrieb bei der LH München mit speziellen Rahmenbedingungen 1 Klaus Barth Projektleiter ASV in München, Mitglied des ASV-Teams im BayStMBW E-Mail: klaus.barth@muenchen.de Telefon: 089 233 43 05 6 2 Agenda
MehrStorage Optionen für I/O intensive Applikationen
Storage Optionen für I/O intensive Applikationen SSCS Team Ulm Christian Mosch, Karsten Siegmund, Jürgen Salk, Matthias Neuer, Vladimir Kushnarenko, Stefan Kombrink, Thomas Nau, Stefan Wesner Steinbuch
MehrOracle und Hochverfügbarkeit Verschiedene Ansätze im Vergleich. Dierk Lenz Herrmann & Lenz Services GmbH DOAG Regio München/Südbayern 14.
Oracle und Hochverfügbarkeit Verschiedene Ansätze im Vergleich Dierk Lenz Herrmann & Lenz Services GmbH DOAG Regio München/Südbayern 14. April 2014 Herrmann & Lenz Services GmbH Herrmann & Lenz Solutions
MehrZum Aufwärmen nocheinmal grundlegende Tatsachen zum Rechnen mit reelen Zahlen auf dem Computer. Das Rechnen mit Gleitkommazahlen wird durch den IEEE
Zum Aufwärmen nocheinmal grundlegende Tatsachen zum Rechnen mit reelen Zahlen auf dem Computer. Das Rechnen mit Gleitkommazahlen wird durch den IEEE 754 Standard festgelegt. Es stehen sogenannte einfach
MehrWissenschaftliches Rechnen an der Christian- Albrechts-Universität zu Kiel
Wissenschaftliches Rechnen an der Christian- Albrechts-Universität zu Kiel ZKI-Tagung, AK Supercomputing, 16.-17.03.2015 Holger Marten Landeshauptstadt Kiel - Bodo Quante 1. Etwas Historie 16.03.2015 Dr.
MehrSoftware Engineering für moderne, parallele Plattformen
Software Engineering für moderne, parallele Plattformen b. Ergänzungen zur Performanz Dr. Victor Pankratius Dr. Victor Pankratius IPD Lehrstuhl für Programmiersysteme-Tichy KIT die Kooperation von Forschungszentrum
MehrBeispiele von Branch Delay Slot Schedules
Beispiele von Branch Delay Slot Schedules Bildquelle: David A. Patterson und John L. Hennessy, Computer Organization and Design, Fourth Edition, 2012 Grundlagen der Rechnerarchitektur Prozessor 97 Weniger
MehrOracle Corporation
1 2012 Oracle Corporation ORACLE PRODUCT LOGO Neues von Oracle Lorenz Keller Leiter Systemberatung Gut zu wissen DOAG Regionalgruppe Bremen am 20. Februar 2012 2 2012 Oracle Corporation Agenda Neue Produkte
MehrLeistungsanalyse von Rechnersystemen
Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH) Leistungsanalyse von Rechnersystemen Auf Ein-/Ausgabe spezialisierte Benchmarks Zellescher Weg 12 Willers-Bau A109 Tel. +49 351-463 - 32424
MehrSAN versus NAS für Oracle Datenbanken. Datenbanken sind unsere Welt
SAN versus NAS für Oracle Datenbanken Vortragender Christian Pfundtner Ing. Christian Pfundtner OCA, OCP, OCE, OCM, ACE Oracle Datenbank Spezialist seit 1993 Über 19 Jahre Erfahrung im Oracle Datenbank
MehrDatenblatt: TERRA PC-GAMER 6100 1.129,00. Gaming-PC mit 240GB SSD + AMD R9 Grafik. Zusätzliche Artikelbilder IT. MADE IN GERMANY. 25.06.
Datenblatt: TERRA PC-GAMER 6100 Gaming-PC mit 240GB SSD + AMD R9 Grafik Herstellername: WORTMANNAG Artikel Nr.: 1001252 Referenznummer: 1001252 1.129,00 24MonateVor Ort Serviceinkl.Medieneinbehalt inkl.
MehrSpeicher-Infrastrukturen der Zukunft Neue Technologien neue Chancen für Standardkomponenten
Speicher-Infrastrukturen der Zukunft Neue Technologien neue Chancen für Standardkomponenten OSL Technologietage Berlin 14./15. September 2011 Bert Miemietz OSL Gesellschaft für offene Systemlösungen mbh
MehrSoftware Distributed Shared Memory. Vortrag im Rahmen des Seminars Ausgewählte Themen in Hardwareentwurf und Optik Sarah Neuwirth, 05.
Software Distributed Shared Memory Vortrag im Rahmen des Seminars Ausgewählte Themen in Hardwareentwurf und Optik Sarah Neuwirth, 05. Juli 2011 Agenda 1. Motivation 2. Was ist Software Distributed Shared
MehrC-to-CUDA-Compiler. Johannes Kölsch. October 29, 2012
October 29, 2012 Inhaltsverzeichnis 1 2 3 4 5 6 Motivation Motivation CUDA bietet extreme Leistung für parallelisierbare Programme Kompliziert zu programmieren, da multi-level parallel und explizit verwalteter
MehrDell HPC Solutions. Dieter Schuett Sr. Sales Engineer Business Development HPC
Dell HPC Solutions Dieter Schuett Sr. Sales Engineer Business Development HPC Agenda Übersicht der PowerEdge Rack Server Übersicht der PowerEdge Blade Server Übersicht der PowerEdge C Server Infiniband
MehrDatenbanksysteme. Donald Kossmann TU München
Datenbanksysteme Donald Kossmann TU München Übersicht Wie benutze ich ein Datenbanksystem? Datenmodellierung (ER, UML, Theorie) Datenbankprogrammierung (SQL) Wie baue ich ein Datenbanksystem? Anfrageoptimierung
MehrVienna Scientific Cluster
Vienna Scientific Cluster Die Hochleistungsrechner der Wiener Universitäten Universität Wien, BOKU, TU Wien Herbert Störi Betreiber der Systeme Wir messen die Rechenleistung Instruktionen /Sekunde IPS,
MehrInfiniband Diagnose und Cluster HealthCheck Arbeitskreis Supercomputing Hamburg, 2010-03-05 Peter Niessen support@par-tec.com
ParTec Cluster Competence Center GmbH Infiniband Diagnose und Cluster HealthCheck Arbeitskreis Supercomputing Hamburg, 2010-03-05 Peter Niessen support@par-tec.com 1 JuRoPA JSC: Sun Blade SB6048 2208 Compute
Mehr