Infiniband Kopplung Heidelberg Mannheim
|
|
|
- Paula Koenig
- vor 8 Jahren
- Abrufe
Transkript
1 Infiniband Kopplung Heidelberg Mannheim Tests aktueller Komponenten und Pläne für den Ausbau S. Richling, S. Friedel (Universität Heidelberg) S. Hau, H. Kredel (Universität Mannheim) Förderträger:
2 Infiniband Kopplung Heidelberg Mannheim Derzeitiger Ausbau für bwgrid Cluster Mannheim Cluster Heidelberg Infiniband Entfernung 28 km Infiniband Infiniband über Ethernet über Glasfaser Infiniband (2 Gbit/sec) Ethernet (1 Gbit/sec) mit Obsidian Longbow stabil in Betrieb seit Juli 29 eine Cluster-Administration mit einem Batchsystem eine Benutzerverwaltung, die verschiedene Quellen integriert: LDAP (MA), AD (HD), Grid-Zertifikate, Shibboleth 2 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
3 Infiniband Kopplung Heidelberg Mannheim Latenz und Bandbreite bwgrid Latency [µsec] IMB: PingPong buffer size GB Bandwidth [Mbytes/sec] IMB: PingPong buffer size 1 GB May 213 Jun 213 Jul 213 Time [Month Year] Aug 213 Sep 213 May 213 Jun 213 Jul 213 Aug 213 Time [Month Year] Sep 213 Lichtlaufzeit (28 km) 143 µsec Latenz (Cluster) +2 µsec Latenz (MPI) 145 µsec Bandbreite (MPI) 93 MByte/sec Latenz/Bandbreite nicht gut genug für standortübergreifende Jobs 3 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
4 Infiniband Kopplung Heidelberg Mannheim IO Performance bwgrid Bandwidth [Mbytes/sec] IOzone Benchmark (32 GB File in 4 MB Records) Read Write Bandwidth [Mbytes/sec] MPI IO Benchmark (N Procs write N Files with 5 MB in 1 MB Records) 64 Procs 32 Procs 16 Procs 8 Procs MA MA HD MA MA HD HD HD Node Location Storage Location MA MA HD MA MA HD HD HD Node Location Storage Location Bandbreite ausreichend für Zugriff auf Storage-Systeme: Mannheim(MA) $HOME und Heidelberg(HD) $SCRATCH IO Performance nahezu unabhängig vom Zugriffsweg (Zugriff auf lokales oder entferntes Speichersystem) 4 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
5 bwhpc Leistungspyramide 5 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
6 bwforcluster Forschungsgebiete nach Standort 6 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
7 bwforcluster MLS&WISO Standort Heidelberg/Mannheim Forschungsschwerpunkte Molekulare Lebenswissenschaften Wirtschafts- und Sozialwissenschaften Wissenschaftliches Rechnen Projektpartner 7 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
8 Inifiniband Kopplung Heidelberg Mannheim Überlegungen zum Ausbau für den bwforcluster Gründe für die Fortsetzung der Kopplung: Bündelung und Ausbau von Kompetenzen (RUM, URZ, IWR) Optimale Nutzung der Rechnerräume (Platz, Betriebskosten) Erhöhte Verfügbarkeit und Ausfallsicherheit Netzwerk-Voraussetzungen für den Ausbau: Kapazität der Glasfaser ausreichend (Dark Fiber) Netzwerkkomponenten für Nutzung paralleler Kanäle nötig 4 Gbit/sec Bandbreite möglich mit aktuell verfügbaren Netzwerkkomponenten Infiniband Ethernet Durchsatzraten von aktuellen Speichersystemen sollen bedient werden (mehrere GByte/sec) Kosten für die Kopplung sollen im Rahmen bleiben Plan: Ausbau auf 4 x 4 Gbit/sec = 16 Gbit/sec 8 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
9 Performance Modell für verteilte Cluster Kredel et al. 212 (DOI 1.17/s ) Wenige Hardware-Parameter Cluster I 1 Bandbreite b E Cluster I 2 n l th b I Anzahl Kerne Performance Kern Bandbreite n l th b I Anzahl Kerne Performance Kern Bandbreite Wenige Parameter für die Anwendung #op Zahl der Rechenoperationen #b Anzahl Bytes (Datenmenge) #x Anzahl der ausgetauschten Bytes Skizze Performance Modell Laufzeit auf einem Cluster: t 1 = Rechenzeit + Kommunikation(b I ) Laufzeit auf zwei Clustern: t 2 = t 1 (mit halber Load) + Kommunikation(b E ) Ergebnis: Speedup für eine Anwendung für eine bestimmte Hardware 9 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
10 Standortübergreifende MPI Performance Erwartungen für bwforcluster nach dem Performance Modell HPL (matrix size 4) inter cluster bandwidth 1 GB/sec 5 GB/sec 1 GB/sec speedup number of cores Ergebnis für kommunikationsintensive Anwendungen: Lineare Skalierung bis etwa n = 1 für b E = 1 GByte/sec. 1-fache Bandbreite erhöht die Skalierbarkeit um Faktor 3. Standortübergreifende Jobs für bestimmte Anwendungen sinnvoll? 1 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
11 Infiniband über größere Entfernungen Technische Möglichkeiten Mellanox MetroX Long Haul Series Infiniband über Ethernet über Glasfaser 56 Gbit/sec Infiniband 4x1 Gbit/sec Ethernet Obsidian Longbow C-Series Infiniband über Ethernet über Glasfaser QDR Infiniband 4x1 Gbit/sec Ethernet Wellenlängenmultiplexer zur Nutzung mehrerer Farbkanäle (Bildquelle: Pan DaCom) 11 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
12 Teststellung mit Mellanox Aufbau (September 213) Mellanox MetroX TX61 Switche (bis 1 km) Pan Dacom DWDM System SPEED-OTS-5 HPC-Cluster Helics3a (IWR, Universität Heidelberg) 32 Knoten mit 4 x 8 Core AMD Opteron Mellanox 4G QDR single 4 Knoten verbunden über MetroX (1 x 4 Gbit/sec) Test-Entfernungen: 1 km, 2 km, 33 km Remote-Unterstützung durch Mellanox Entwickler 12 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
13 Teststellung mit Mellanox Konfiguration (PoC) 4 Gbit/s Infiniband --> 4 x 1 Gbit/s --> DWDM? SPEED-WDM System XFP/ DWDM SFP+ XFP Ch nm - km (Back to Back) - 2 km - 4 km - 6 km - 8 km Test Traffic HPC? QSFP? Mellanox Metro X QSFP-LR CWDM MUX SCWDM-161 SCWDM-81E 129 nm 131 nm 133 nm Transponder 3R - SSL XFP - SSL XFP 3R - SDL 1G - SDL 16G DWDM MUX SDWDM-81E-34/41 Faser - Fasertrommel oder - Freie Kanäle Dämpfung (Mannheim - Heidelberg) - AOC Kabel - MPO Crossover Kabel - FAN OUT Kabel - LC Duplex - Patchkabel - Patchkabel LC-LC - Patchkabel LC-LC - Patchkabel LC-LC 13 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
14 Teststellung mit Mellanox Ergebnis Latenz und Bandbreite Latency [µsec] MetroX bwgrid IMB: PingPong Distance [km] Bandwidth [MByte/sec] local 1 km 2 km 33 km IMB: PingPong Message size [byte] Latenz für 33 km wie erwartet hoch. MPI-Bandbreite bei 1 x 4 Gbit/sec: 2.6 GByte/sec bis 33 km Erwartung MPI-Bandbreite bei 4 x 4 Gbit/sec: 1 GByte/sec 14 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
15 Teststellung mit Obsidian Aufbau (April 214) Obsidian Longbow C4 Pan Dacom SPEED-CWDM 161 HPC-Cluster Helics3a (IWR, Universität Heidelberg) 32 Knoten mit 4 x 8 Core AMD Opteron Mellanox 4G QDR single 4 Knoten verbunden über Obsidian Longbow (1 x 4 Gbit/sec) Test-Entfernung: 33 km 15 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
16 Teststellung mit Obsidian Ergebnis Latenz und Bandbreite latency [µsec] IMB Ping-Pong Obsidian test bwgrid distance [km] bandwidth [MByte/sec] local 33 km IMB Ping-Pong message size [byte] Latenz für 33 km wie erwartet hoch. MPI-Bandbreite bei 1 x 4 Gbit/sec: 2.6 GByte/sec bis 33 km Erwartung MPI-Bandbreite bei 4 x 4 Gbit/sec: 1 GByte/sec 16 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
17 Vergleich der Teststellungen Ergebnisse Bandbreite bandwidth [MByte/sec] IMB Ping-Pong local 33 km Obsidian 33 km Mellanox single job message size [byte] bandwidth [MByte/sec] IMB Ping-Pong local 33 km Obsidian 33 km Mellanox 4 jobs at the same time message size [byte] Software gleich: IMB 3.2, Intel Compiler , OpenMPI Job: Bandbreite gleich, kleine Abweichung bei hoher Paketgröße 4 Jobs gleichzeitig: Bandbreite innerhalb der Fehlergrenzen gleich, Sättigung der Leitung erreicht 17 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
18 Zusammenfassung Infiniband Kopplung zum Betrieb eines verteilten Clusters stabil und dauerhaft möglich Fortführung des Konzeptes für neuen Cluster Teststellungen mit aktueller Technik Funktionstests für 1 x 4 Gbit/sec mit Technik von Mellanox und Obsidian durchgeführt Ergebnis: Beide Techniken sind für uns einsetzbar. Offene Punkte Lasttest über längeren Zeitraum Lastverteilung bei 4 x 4 Gbit/sec Verhalten im Produktionsbetrieb 18 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
Kopplung der bwgrid Cluster. Heidelberg und Mannheim
Kopplung der bwgrid Cluster von Heidelberg und Mannheim Steffen Hau, Heinz Kredel, Sabine Richling, Rolf Bogus ZKI AK Supercomputing, zib, FU Berlin, Oktober 2009 Inhalt Heidelberg und Mannheim bwgrid
Next Generation DWDM-System 200 Gbit/s Muxponder und AES 256 Verschlüsselung
9. Business Brunch 2017 Next Generation DWDM-System 200 Gbit/s Muxponder und AES 256 Verschlüsselung Referent: Markus Förster Leiter Produktmanagement Pan Dacom Direkt GmbH vertraulich Highspeed Data Center
Storage Optionen für I/O intensive Applikationen
Storage Optionen für I/O intensive Applikationen SSCS Team Ulm Christian Mosch, Karsten Siegmund, Jürgen Salk, Matthias Neuer, Vladimir Kushnarenko, Stefan Kombrink, Thomas Nau, Stefan Wesner Steinbuch
Cluster-Benutzerverwaltung: erste Schritte mit Shibboleth
Cluster-Benutzerverwaltung: erste Schritte mit Shibboleth Steffen Hau, Reinhard Mayer, Sabine Richling, Tobias Kienzle, Heinz Kredel Rechenzentrum Universität Mannheim Universitätsrechenzentrum Heidelberg
Cluster-Computing am Beispiel bwgrid. Dr. Heinz Kredel Rechenzentrum der Universität Mannheim
Cluster-Computing am Beispiel bwgrid Dr. Heinz Kredel Rechenzentrum der Universität Mannheim Inhalt Grid bwgrid Cluster Cluster Administration und Betrieb Cluster Nutzung Grid The Grid is a system that:
Einführung in wiss. Software. bwgrid-cluster
Einführung in wiss. Software auf dem bwgrid-cluster Dr. Heinz Kredel und Dr. Sabine Richling Inhalt bwgrid Cluster Java Programmierung Java Threads, Java OpenMP, TCP/IP Kommunikation, Java MPP, Strategien
T-Systems SfR - HPCN Workshop
HPC System Design und die Auswirkungen auf die Anwendungsperformance Thomas Alrutz HPC & escience Solutions & Innovations - Scientific & Technical ICT T-Systems Solutions for Research GmbH T-Systems SfR
Produkt-Update SPEED-OTS-5000
8. Business Brunch 2015 Produkt-Update SPEED-OTS-5000 Referent: Markus Förster Martin Ebeling Georg Dürr Pan Dacom Direkt GmbH Produkt-Update SPEED-OTS-5000 SPEED-Management-Software SPEED-Systemkarten
HPC an der Uni Mainz
Einwicklung vom ersten Top500 Rechner bis zum AHRP HPC - AHRP - ZKI Markus Tacke, ZDV, Universität Mainz AK Supercomputer Kaiserslautern 19.4.2012 ZDV: CC NUMA 1.1.1995: Convex SPP1000/16 16 PA Risc 7100
8. Business Brunch 2015
8. Business Brunch 2015 WDM-Komplett-Paket Referent: Angela Bösche Leiterin Key Account Management Pan Dacom Direkt GmbH Agenda Was ist WDM? Von der Glasfaseranmietung bis zum Betrieb und Support des WDM-Systems
Benchmark-Anforderungen im Beschaffungsprozess der bwforcluster
Benchmark-Anforderungen im Beschaffungsprozess der bwforcluster Bernd Wiebelt, Rechenzentrum, Universität Freiburg Jürgen Salk, kiz, Universität Ulm Steinbuch Centre for Computing (SCC) Funding: www.bwhpc-c5.de
Welchen Mehrwert bietet OM5 in Highspeed Netzen? Tayfun Eren Produktmanager LWL Kabeln
Welchen Mehrwert bietet OM5 in Highspeed Netzen? Tayfun Eren Produktmanager LWL Kabeln 20.03.2018 AGENDA Lichtwellenleiter Grundlage Neue MM-Systeme SWDM Vorteile OM5 LWL-Verkabelung mit OM5 2 Lichtwellenleiter
CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm
CHiC er Hochleistungs-Linux Cluster Stand HPC Cluster CHiC, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität
Programmierung und Leistungsanalyse des bwgrid-clusters. Dr. Heinz Kredel und Dr. Hans-Günther Kruse
Programmierung und Leistungsanalyse des bwgrid-clusters Dr. Heinz Kredel und Dr. Hans-Günther Kruse Inhalt bwgrid Cluster Programmierung Threads, OpenMP, Kommunikation, OpenMPI, Strategien Leistungsanalyse
Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ
Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ Hinnerk Stüben ZKI-Arbeitskreis Supercomputing Leibniz-Rechenzentrum, Garching 19. Oktober 2015 Themen Neues HPC-Cluster
Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland
Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover [email protected] 14. März 2013
ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf
ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012 Scientific Computing in Düsseldorf Peter Schreiber [email protected] 0211-81-13913 http://www.zim.hhu.de ZKI Arbeitskreis Supercomputing 20.-21.09.2012
OM5 - Nonplusultra oder Flop?
OM5 - Nonplusultra oder Flop? DATA CENTER FORUM 2018 Pius Albisser Senior Engineer Data Centre Solutions 20. März 2018 Ein Beitrag von Pius Albisser Senior Engineer Data Centre Solutions Dätwyler Cabling
magnitude Erste Erfahrungen mit dem neuen HPC-System der UDE
magnitude Erste Erfahrungen mit dem neuen HPC-System der UDE ZKI-AK Supercomputing Holger Gollan Agenda Die Universität Duisburg-Essen (UDE) Das Zentrum für Informations- und Mediendienste (ZIM Das Center
bw-grid Cluster in Mannheim
bw-grid Cluster in Mannheim Dr. Heinz Kredel mit Helmut Fränznick, Rudi Müller, Steffen Hau, Andreas Baust Inhalt Grid und D-Grid BMBF Projekt bw-grid Cluster Stand: Aufbau und Inbetriebnahme Benutzung
Erfahrungen mit LSF an der RWTH. Eine kurze Geschichte der LoadSharingFacility
Erfahrungen mit LSF an der RWTH Eine kurze Geschichte der LoadSharingFacility Zeitlinie 2011 Wechsel SGE -> LSF, Bull Cluster, GPU-Cluster 2012 JARA-HPC 2014 Projektbewirtschaftung RWTH 2016 NEC Cluster
XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25
XEN Performance Projektpraktikum Informatik Arne Klein 2008-02-26 Arne Klein () XEN Performance 2008-02-26 1 / 25 1 Virtualisierung mit XEN 2 Performance von XEN Allgemeines Netzwerk-Performance IO-Performance
Patagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre
Patagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre Felix Rauch Christian Kurmann, Blanca Maria Müller-Lagunez, Thomas M. Stricker Institut für Computersysteme ETH Zürich Eidgenössische Technische
CLAIX Vorstellung und Technik Christian Terboven
CLAIX Vorstellung und Technik Christian Terboven Inhalte CLAIX Phase I Zwei Rack-Reihen + 2 Schränke Testbetrieb mit Projekten seit November 2016 Trier-2 HPC-System Abnahme im Januar 2017 TOP500 im November
Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner. Dr. Andreas Wolf. Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum
Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Überblick Randbedingungen der HPC Beschaffung an der
Herzlich Willkommen zum Technologieforum OSMO am 16. &
Herzlich Willkommen zum Technologieforum OSMO am 16. & 17.09.2015 Agenda: - Standard LWL-Verbindung - Bidirektionale Übertragung - Wellenlängenmultiplexing - Coarse Wavelength Division Multiplex (CWDM)
Storage-Zugriffsoptimierung mit QFS für TanDEM-X im DLR
Storage-Zugriffsoptimierung mit QFS für TanDEM-X im DLR Matthias Rumitz, dignum 27.05.2011 Das Projekt TanDEM-X wird anteilig durch das Bundesministerium für Wirtschaft und Technologie gefördert (Förderkennzeichen
Netzwerkperformance 2.0
Netzwerkperformance 2.0 Die KPI`s als Schlüsselfaktoren der Netzwerke Andreas Dobesch, Product Manager DataCenter Forum 2014, Trafo Baden ISATEL Electronic AG Hinterbergstrasse 9 CH 6330 Cham Tel. 041
ZKI AK Supercomputing 2017 Frühjahrstreffen , Duisburg-Essen
ZKI AK Supercomputing 2017 Frühjahrstreffen 16.03. -, Duisburg-Essen Live-Daten und Langzeitstatistiken eines HPC-Systems für verschiedene Interessengruppen bwhpc-projekt Bernd Wiebelt, Konrad Meier, Michael
Introduction Workshop 11th 12th November 2013
Introduction Workshop 11th 12th November 2013 Lecture I: Hardware and Applications Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Overview Current and next System Hardware Sections
MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz
MOGON Markus Tacke HPC ZDV HPC - AHRP Was ist Mogon allgemein? Das neue High Performance Cluster der JGU Ein neues wichtiges Werkzeug für Auswertung von Messdaten und Simulationen Beispiele Kondensierte
HYPER-CONVERGED INFRASTRUCTURE. Höhere Performance Reduzierte Ausfallzeiten Verbesserte Auslastung Niedrigere Kosten
HYPER-CONVERGED INFRASTRUCTURE Höhere Performance Reduzierte Ausfallzeiten Verbesserte Auslastung Niedrigere Kosten 2 HYPER-CONVERGED INFRASTRUCTURE Infrastrukturlösung mit Die Software läuft direkt auf
UBELIX University of Bern Linux Cluster
University of Bern Linux Cluster Informatikdienste Universität Bern ID BEKO Grid Forum 7. Mai 2007 Inhalt Einführung Ausbau 06/07 Hardware Software Benutzung Dokumentation Gut zu wissen Kontakt Apple/Mac:
High Performance Computing am Fraunhofer ITWM
High Performance Computing am Fraunhofer ITWM FhGFS Zielsetzung und Einsatzszenarien 4. März 2010 ZKI Arbeitskreis Supercomputing Dr. Franz-Josef Pfreundt Competence Center for HPC Fraunhofer Institut
Die Marvel, ein gedrosselter Supercomputer
Die Marvel, ein gedrosselter Supercomputer Warum ist die Marvel so schnell? Warum ist die Marvel so langsam? Erfahrungen mit dem Softwaresupport Warum ist die Marvel so schnell? Hardware Z.Cvetanovic,
Black Box erklärt: 10 Gigabit Technologie
Black Box erklärt: 10 Gigabit Technologie Sie kopieren eine grosse Datei von Ihrem PC auf den Server? Und es dauert mal wieder lange, zu lange? Das sind die Momente, in denen User gerne nach mehr Bandbreite
2011, Pan Dacom Direkt GmbH. Zukunft der Kommunikation Kommunikation der Zukunft
Zukunft der Kommunikation Kommunikation der Zukunft Zukunft der Kommunikation Kommunikation der Zukunft Ausblick optische DWDM und CWDM Netze: 10G, 40G, 100G, 1T Zukunft oder Fiktion? Referent: Herr Dipl.-Ing.
HLRN III - HPC Ressource für Norddeutschland
HLRN III - HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover [email protected] 23. September 2014 Inhalt Der HLRN Verbund
Fluent auf Windows HPC Server 2008. ict ag - Mit uns können Sie rechnen
Fluent auf Windows HPC Server 2008 ict ag - Mit uns können Sie rechnen Historie der ict AG Die ict (information communication technology) AG mit Sitz in Aachen, wurde im Jahre 1985 gegründet und übernimmt
Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen
DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension
News. 6. Oktober 2011 ZKI Arbeitskreis Supercomputing. Dr. Franz-Josef Pfreundt Competence Center for HPC
News 6. Oktober 2011 ZKI Arbeitskreis Supercomputing Dr. Franz-Josef Pfreundt Competence Center for HPC Fraunhofer Institut für Techno- & Wirtschaftsmathematik Mathematische Modelle Algorithmen Simulation
Einsatz von GPFS an der JGU
Einsatz von GPFS an der JGU HPC@JGU Markus Tacke Leiter HPC ZDV Johannes Gutenberg-Universität Mainz Was Kommt? Umfeld JGU Historie HPC@JGU und seine Daten Aufgabe ATLAS I/O Lösung GPFS!! Ergebnisse.(wird
CentricStor FS. Scale out File Services
CentricStor FS Scale out File Services Richard Schneider Product Marketing Storage 1 Was ist CentricStor FS? CentricStor FS ist ein Speichersystem für das Data Center Zentraler Pool für unstrukturierte
TIPC Analyse und Optimierung
There are three kinds of lies: Lies, Damn Lies, and Benchmarks. TIPC Analyse und Optimierung Florian Westphal 13. Juli 2007 1024D/F260502D 1C81 1AD5 EA8F 3047 7555 E8EE 5E2F DA6C F260 502D
Das bwgrid High Performance Compute Cluster als flexible, verteilte Wissenschaftsinfrastruktur
Das bwgrid High Performance Compute Cluster als flexible, verteilte Wissenschaftsinfrastruktur Marek Dynowski (Universität Freiburg) Michael Janczyk (Universität Freiburg) Janne Schulz (Universität Freiburg)
<Insert Picture Here> RAC Architektur und Installation
RAC Architektur und Installation Elmar Ströhmer Michael Künzner Oracle Server Technologies Competence Center Agenda Überblick und Architekturen von HA-Systemen Hardware Die Basis
Erfahrungsbericht, Konsolidierung und Administration Real Application Cluster
Erfahrungsbericht, Konsolidierung und Administration Real Application Cluster Themen Über mich Projekt RAC bei Heine Probleme Resultate Fragen 2 Über mich virtual7 GmbH Jürgen Bouché Zeppelinstraße 2 76185
Der kleine Fiber Guide
Der kleine Fiber Guide Kabel, Stecker, Optiken - eine Übersicht Matthias Cramer Copyright c 2015-2018 Matthias Cramer PUBLISHED BY FREESTONE SYSTEMS WWW.FREESTONE.NET Licensed under the Creative Commons
Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen
Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem hristian Terboven Rechen- und Kommunikationszentrum RWTH Aachen 1 Hochleistungsrechnen mit Windows enter omputing and ommunication
Nutzung paralleler Prozesse bei der Umweltsimulation
Nutzung paralleler Prozesse bei der Umweltsimulation RALF Wieland [email protected] ZALF/LSA Nutzung paralleler Prozesse bei der Umweltsimulation p. 1 Warum parallele Prozesse? Die Steigerung der Taktfrequenz
3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN?
3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN? Udo Schaefer Berlin, den 10. November 2011 DIE NETZE UND IHRE NUTZUNG Berechnungsgrundlage 800 Millionen Facebook Nutzer Transport
SPEICHER-NETZWERKBETRIEB
SpeicherNETZWERKBETRIEB FIBRE CHANNEL Vom Rechenzentrum zu den Arbeitsgruppen und bis an die Unternehmensgrenzen liefert QLogic ein umfassendes Portfolio von Adaptern, Switches und Routern für iscsi- und
Performance Engineering: Forschung und Dienstleistung für HPC-Kunden. Dirk Schmidl
Performance Engineering: Forschung und Dienstleistung für HPC-Kunden Hardware Komplexität GPU KNL MPI L U S T R E SMP Claix NVMe HOME Storage OPA Die Komplexität moderner HPC Systeme erfordert Optimierung
Schneller als Hadoop?
Schneller als Hadoop? Einführung in Spark Cluster Computing 19.11.2013 Dirk Reinemann 1 Agenda 1. Einführung 2. Motivation 3. Infrastruktur 4. Performance 5. Ausblick 19.11.2013 Dirk Reinemann 2 EINFÜHRUNG
ODA Erfahrungen und Neuigkeiten
ODA Erfahrungen und Neuigkeiten Dierk Lenz 25. Oktober 2017 Köln Oracle Database Appliance (ODA) Mitglied der Familie der Oracle Engineered Systems, d.h.: Hardware und Software (Betriebssystem, Datenbank)
Julian Kunkel. ZKI-Arbeitskreis Supercomputing
Julian Kunkel ZKI-Arbeitskreis Supercomputing Motivation Job-Statistiken Verfügbare Metriken Technische Umsetzung HPSS-Monitoring DKRZ, ZKI, 05.03.2010, Julian Kunkel 2 Transparenz! Unter minimalen Leistungseinbußen
GPGPUs am Jülich Supercomputing Centre
GPGPUs am Jülich Supercomputing Centre 20. April 2012 Jochen Kreutz Jülich Supercomputing Centre (JSC) Teil des Forschungszentrums Jülich und des Institute for Advanced Simulation (IAS) betreibt Supercomputer
Diskless Cluster und Lustre Erfahrungsbericht zum CHiC
Diskless Cluster und Lustre Erfahrungsbericht zum CHiC, Torsten Hoefler, Torsten Mehlan und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität
ProCurve Zubehör für Switches
ProCurve Zubehör für Switches 221 ProCurve Mini-GBICs und SFPs ProCurve Gigabit-SX-LC Mini-GBIC (J4858C) 1 LC 1000Base-SX-Port (IEEE 802.3z Typ 1000Base-SX) Maße (T x B x H): 5,69 x 1,37 x 1,23 cm Gewicht:
PostgreSQL im Cluster. Hans-Jürgen Schönig Hans-Jürgen Schönig
PostgreSQL im Cluster Über uns PostgreSQL Dienstleistungen Cybertec bietet Ihnen... 24x7 Support für PostgreSQL PostgreSQL Consulting Performance Tuning PostgreSQL Training Cloud & Clustering PostgreSQL
Manycores: Hardware und Low-Level Programmierung
Manycores: Hardware und Low-Level Programmierung Florian Sattler Universität Passau 18. Juni 2014 Übersicht Einführung Neue Architekturen Programmierung Supercomputing Fazit 2 / 29 Top 500 3 / 29 Motivation
Infiniband Diagnose und Cluster HealthCheck Arbeitskreis Supercomputing Hamburg, 2010-03-05 Peter Niessen [email protected]
ParTec Cluster Competence Center GmbH Infiniband Diagnose und Cluster HealthCheck Arbeitskreis Supercomputing Hamburg, 2010-03-05 Peter Niessen [email protected] 1 JuRoPA JSC: Sun Blade SB6048 2208 Compute
Der kleine Fiber Guide
Der kleine Fiber Guide Kabel, Stecker, Optiken - eine Übersicht Matthias Cramer Copyright c 2015-2018 Matthias Cramer PUBLISHED BY FREESTONE SYSTEMS WWW.FREESTONE.NET Licensed under the Creative Commons
Verteilte Betriebssysteme
Verteiltes System Eine Sammlung unabhängiger Rechner, die dem Benutzer den Eindruck vermitteln, es handle sich um ein einziges System. Verteiltes Betriebssystem Betriebssystem für verteilte Systeme Verwaltet
P R Ä S E N T I E R T. LC Duplex, SFP spacing. MTP, mit Pins (male): MTP/m. MTP, ohne Pins (female): MTP/f. EDGE Module (Kassette), MTP/m auf LC Dup
P R Ä S E N T I E R T Betrachtungsweisen für die 40G und 00G Migration in der Data Center Verkabelung Joergen Janson Data Center Marketing Spezialist Legende LC Duplex, SFP spacing MTP, mit Pins (male)
Rechnernetze I. Rechnernetze I. 1 Einführung SS Universität Siegen Tel.: 0271/ , Büro: H-B 8404
Rechnernetze I SS 2012 Universität Siegen [email protected] Tel.: 0271/740-4050, Büro: H-B 8404 Stand: 20. April 2012 Betriebssysteme / verteilte Systeme Rechnernetze I (1/12) i Rechnernetze
transtec Entry Level HPC Cluster
Entry Level HPC Cluster Komplettes HPC Clustersystem inklusive Installation und Lieferung Nicht genug Knoten? Fragen zu dem System? Kontaktieren Sie uns unter: 01/726 60 90 oder @.at Position 1: Rack 19"
PVFS (Parallel Virtual File System)
Management grosser Datenmengen PVFS (Parallel Virtual File System) Thorsten Schütt [email protected] Management grosser Datenmengen p.1/?? Inhalt Einführung in verteilte Dateisysteme Architektur
Management Cluster und MU-Redundanz
Freigabeseminar FUJITSU Software BS2000 OSD/BC V11.0 und FUJITSU Server BS2000 SE Serie Management Cluster und MU-Redundanz Rainer Neuburger, BS2000 Qualitätssicherung München, 19. Oktober 2017 0 2017
Datenbankspiegelung mit (Active) Data Guard. und Abgrenzung
Datenbankspiegelung mit (Active) Data Guard und Abgrenzung ORACLE Deutschland B.V. & Co. KG Stephan Haas Server Technology Competence Center Agenda Überblick Oracle DataGuard Oracle
RDMA oder: Wie ich lernte, 100 Gb/s Netzwerke zu lieben
RDMA oder: Wie ich lernte, 100 Gb/s Netzwerke zu lieben Jan Kappen Microsoft MVP Cloud and Datacenter Management IT Consultant bei Rachfahl IT-Solutions Trainer Buch Autor Blogger Blog: hyper-v-server.de
Hochleistungs-Disk-I/O
Hochleistungs-Disk-I/O mit Lustre, dcache und AFS eine vergleichende Betrachtung Stephan Wiesand DESY DV 33. Treffen des ZKI AK Supercomputing Hamburg, 2010-03-04 Computing am DESY Standort Zeuthen Batch
