Infiniband Kopplung Heidelberg Mannheim
|
|
- Paula Koenig
- vor 6 Jahren
- Abrufe
Transkript
1 Infiniband Kopplung Heidelberg Mannheim Tests aktueller Komponenten und Pläne für den Ausbau S. Richling, S. Friedel (Universität Heidelberg) S. Hau, H. Kredel (Universität Mannheim) Förderträger:
2 Infiniband Kopplung Heidelberg Mannheim Derzeitiger Ausbau für bwgrid Cluster Mannheim Cluster Heidelberg Infiniband Entfernung 28 km Infiniband Infiniband über Ethernet über Glasfaser Infiniband (2 Gbit/sec) Ethernet (1 Gbit/sec) mit Obsidian Longbow stabil in Betrieb seit Juli 29 eine Cluster-Administration mit einem Batchsystem eine Benutzerverwaltung, die verschiedene Quellen integriert: LDAP (MA), AD (HD), Grid-Zertifikate, Shibboleth 2 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
3 Infiniband Kopplung Heidelberg Mannheim Latenz und Bandbreite bwgrid Latency [µsec] IMB: PingPong buffer size GB Bandwidth [Mbytes/sec] IMB: PingPong buffer size 1 GB May 213 Jun 213 Jul 213 Time [Month Year] Aug 213 Sep 213 May 213 Jun 213 Jul 213 Aug 213 Time [Month Year] Sep 213 Lichtlaufzeit (28 km) 143 µsec Latenz (Cluster) +2 µsec Latenz (MPI) 145 µsec Bandbreite (MPI) 93 MByte/sec Latenz/Bandbreite nicht gut genug für standortübergreifende Jobs 3 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
4 Infiniband Kopplung Heidelberg Mannheim IO Performance bwgrid Bandwidth [Mbytes/sec] IOzone Benchmark (32 GB File in 4 MB Records) Read Write Bandwidth [Mbytes/sec] MPI IO Benchmark (N Procs write N Files with 5 MB in 1 MB Records) 64 Procs 32 Procs 16 Procs 8 Procs MA MA HD MA MA HD HD HD Node Location Storage Location MA MA HD MA MA HD HD HD Node Location Storage Location Bandbreite ausreichend für Zugriff auf Storage-Systeme: Mannheim(MA) $HOME und Heidelberg(HD) $SCRATCH IO Performance nahezu unabhängig vom Zugriffsweg (Zugriff auf lokales oder entferntes Speichersystem) 4 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
5 bwhpc Leistungspyramide 5 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
6 bwforcluster Forschungsgebiete nach Standort 6 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
7 bwforcluster MLS&WISO Standort Heidelberg/Mannheim Forschungsschwerpunkte Molekulare Lebenswissenschaften Wirtschafts- und Sozialwissenschaften Wissenschaftliches Rechnen Projektpartner 7 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
8 Inifiniband Kopplung Heidelberg Mannheim Überlegungen zum Ausbau für den bwforcluster Gründe für die Fortsetzung der Kopplung: Bündelung und Ausbau von Kompetenzen (RUM, URZ, IWR) Optimale Nutzung der Rechnerräume (Platz, Betriebskosten) Erhöhte Verfügbarkeit und Ausfallsicherheit Netzwerk-Voraussetzungen für den Ausbau: Kapazität der Glasfaser ausreichend (Dark Fiber) Netzwerkkomponenten für Nutzung paralleler Kanäle nötig 4 Gbit/sec Bandbreite möglich mit aktuell verfügbaren Netzwerkkomponenten Infiniband Ethernet Durchsatzraten von aktuellen Speichersystemen sollen bedient werden (mehrere GByte/sec) Kosten für die Kopplung sollen im Rahmen bleiben Plan: Ausbau auf 4 x 4 Gbit/sec = 16 Gbit/sec 8 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
9 Performance Modell für verteilte Cluster Kredel et al. 212 (DOI 1.17/s ) Wenige Hardware-Parameter Cluster I 1 Bandbreite b E Cluster I 2 n l th b I Anzahl Kerne Performance Kern Bandbreite n l th b I Anzahl Kerne Performance Kern Bandbreite Wenige Parameter für die Anwendung #op Zahl der Rechenoperationen #b Anzahl Bytes (Datenmenge) #x Anzahl der ausgetauschten Bytes Skizze Performance Modell Laufzeit auf einem Cluster: t 1 = Rechenzeit + Kommunikation(b I ) Laufzeit auf zwei Clustern: t 2 = t 1 (mit halber Load) + Kommunikation(b E ) Ergebnis: Speedup für eine Anwendung für eine bestimmte Hardware 9 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
10 Standortübergreifende MPI Performance Erwartungen für bwforcluster nach dem Performance Modell HPL (matrix size 4) inter cluster bandwidth 1 GB/sec 5 GB/sec 1 GB/sec speedup number of cores Ergebnis für kommunikationsintensive Anwendungen: Lineare Skalierung bis etwa n = 1 für b E = 1 GByte/sec. 1-fache Bandbreite erhöht die Skalierbarkeit um Faktor 3. Standortübergreifende Jobs für bestimmte Anwendungen sinnvoll? 1 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
11 Infiniband über größere Entfernungen Technische Möglichkeiten Mellanox MetroX Long Haul Series Infiniband über Ethernet über Glasfaser 56 Gbit/sec Infiniband 4x1 Gbit/sec Ethernet Obsidian Longbow C-Series Infiniband über Ethernet über Glasfaser QDR Infiniband 4x1 Gbit/sec Ethernet Wellenlängenmultiplexer zur Nutzung mehrerer Farbkanäle (Bildquelle: Pan DaCom) 11 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
12 Teststellung mit Mellanox Aufbau (September 213) Mellanox MetroX TX61 Switche (bis 1 km) Pan Dacom DWDM System SPEED-OTS-5 HPC-Cluster Helics3a (IWR, Universität Heidelberg) 32 Knoten mit 4 x 8 Core AMD Opteron Mellanox 4G QDR single 4 Knoten verbunden über MetroX (1 x 4 Gbit/sec) Test-Entfernungen: 1 km, 2 km, 33 km Remote-Unterstützung durch Mellanox Entwickler 12 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
13 Teststellung mit Mellanox Konfiguration (PoC) 4 Gbit/s Infiniband --> 4 x 1 Gbit/s --> DWDM? SPEED-WDM System XFP/ DWDM SFP+ XFP Ch nm - km (Back to Back) - 2 km - 4 km - 6 km - 8 km Test Traffic HPC? QSFP? Mellanox Metro X QSFP-LR CWDM MUX SCWDM-161 SCWDM-81E 129 nm 131 nm 133 nm Transponder 3R - SSL XFP - SSL XFP 3R - SDL 1G - SDL 16G DWDM MUX SDWDM-81E-34/41 Faser - Fasertrommel oder - Freie Kanäle Dämpfung (Mannheim - Heidelberg) - AOC Kabel - MPO Crossover Kabel - FAN OUT Kabel - LC Duplex - Patchkabel - Patchkabel LC-LC - Patchkabel LC-LC - Patchkabel LC-LC 13 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
14 Teststellung mit Mellanox Ergebnis Latenz und Bandbreite Latency [µsec] MetroX bwgrid IMB: PingPong Distance [km] Bandwidth [MByte/sec] local 1 km 2 km 33 km IMB: PingPong Message size [byte] Latenz für 33 km wie erwartet hoch. MPI-Bandbreite bei 1 x 4 Gbit/sec: 2.6 GByte/sec bis 33 km Erwartung MPI-Bandbreite bei 4 x 4 Gbit/sec: 1 GByte/sec 14 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
15 Teststellung mit Obsidian Aufbau (April 214) Obsidian Longbow C4 Pan Dacom SPEED-CWDM 161 HPC-Cluster Helics3a (IWR, Universität Heidelberg) 32 Knoten mit 4 x 8 Core AMD Opteron Mellanox 4G QDR single 4 Knoten verbunden über Obsidian Longbow (1 x 4 Gbit/sec) Test-Entfernung: 33 km 15 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
16 Teststellung mit Obsidian Ergebnis Latenz und Bandbreite latency [µsec] IMB Ping-Pong Obsidian test bwgrid distance [km] bandwidth [MByte/sec] local 33 km IMB Ping-Pong message size [byte] Latenz für 33 km wie erwartet hoch. MPI-Bandbreite bei 1 x 4 Gbit/sec: 2.6 GByte/sec bis 33 km Erwartung MPI-Bandbreite bei 4 x 4 Gbit/sec: 1 GByte/sec 16 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
17 Vergleich der Teststellungen Ergebnisse Bandbreite bandwidth [MByte/sec] IMB Ping-Pong local 33 km Obsidian 33 km Mellanox single job message size [byte] bandwidth [MByte/sec] IMB Ping-Pong local 33 km Obsidian 33 km Mellanox 4 jobs at the same time message size [byte] Software gleich: IMB 3.2, Intel Compiler , OpenMPI Job: Bandbreite gleich, kleine Abweichung bei hoher Paketgröße 4 Jobs gleichzeitig: Bandbreite innerhalb der Fehlergrenzen gleich, Sättigung der Leitung erreicht 17 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
18 Zusammenfassung Infiniband Kopplung zum Betrieb eines verteilten Clusters stabil und dauerhaft möglich Fortführung des Konzeptes für neuen Cluster Teststellungen mit aktueller Technik Funktionstests für 1 x 4 Gbit/sec mit Technik von Mellanox und Obsidian durchgeführt Ergebnis: Beide Techniken sind für uns einsetzbar. Offene Punkte Lasttest über längeren Zeitraum Lastverteilung bei 4 x 4 Gbit/sec Verhalten im Produktionsbetrieb 18 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim
Kopplung der bwgrid Cluster. Heidelberg und Mannheim
Kopplung der bwgrid Cluster von Heidelberg und Mannheim Steffen Hau, Heinz Kredel, Sabine Richling, Rolf Bogus ZKI AK Supercomputing, zib, FU Berlin, Oktober 2009 Inhalt Heidelberg und Mannheim bwgrid
MehrNext Generation DWDM-System 200 Gbit/s Muxponder und AES 256 Verschlüsselung
9. Business Brunch 2017 Next Generation DWDM-System 200 Gbit/s Muxponder und AES 256 Verschlüsselung Referent: Markus Förster Leiter Produktmanagement Pan Dacom Direkt GmbH vertraulich Highspeed Data Center
MehrStorage Optionen für I/O intensive Applikationen
Storage Optionen für I/O intensive Applikationen SSCS Team Ulm Christian Mosch, Karsten Siegmund, Jürgen Salk, Matthias Neuer, Vladimir Kushnarenko, Stefan Kombrink, Thomas Nau, Stefan Wesner Steinbuch
MehrCluster-Benutzerverwaltung: erste Schritte mit Shibboleth
Cluster-Benutzerverwaltung: erste Schritte mit Shibboleth Steffen Hau, Reinhard Mayer, Sabine Richling, Tobias Kienzle, Heinz Kredel Rechenzentrum Universität Mannheim Universitätsrechenzentrum Heidelberg
MehrCluster-Computing am Beispiel bwgrid. Dr. Heinz Kredel Rechenzentrum der Universität Mannheim
Cluster-Computing am Beispiel bwgrid Dr. Heinz Kredel Rechenzentrum der Universität Mannheim Inhalt Grid bwgrid Cluster Cluster Administration und Betrieb Cluster Nutzung Grid The Grid is a system that:
MehrEinführung in wiss. Software. bwgrid-cluster
Einführung in wiss. Software auf dem bwgrid-cluster Dr. Heinz Kredel und Dr. Sabine Richling Inhalt bwgrid Cluster Java Programmierung Java Threads, Java OpenMP, TCP/IP Kommunikation, Java MPP, Strategien
MehrLinux in allen Lebenslagen. Diskless Cluster und Lustre Erfahrungsbericht zum CHiC. Frank Mietke. Chemnitzer Linux-Tage 2007
Linux in allen Lebenslagen Diskless Cluster und Lustre Erfahrungsbericht zum CHiC Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität Chemnitz Chemnitzer
MehrT-Systems SfR - HPCN Workshop
HPC System Design und die Auswirkungen auf die Anwendungsperformance Thomas Alrutz HPC & escience Solutions & Innovations - Scientific & Technical ICT T-Systems Solutions for Research GmbH T-Systems SfR
MehrProdukt-Update SPEED-OTS-5000
8. Business Brunch 2015 Produkt-Update SPEED-OTS-5000 Referent: Markus Förster Martin Ebeling Georg Dürr Pan Dacom Direkt GmbH Produkt-Update SPEED-OTS-5000 SPEED-Management-Software SPEED-Systemkarten
MehrHPC an der Uni Mainz
Einwicklung vom ersten Top500 Rechner bis zum AHRP HPC - AHRP - ZKI Markus Tacke, ZDV, Universität Mainz AK Supercomputer Kaiserslautern 19.4.2012 ZDV: CC NUMA 1.1.1995: Convex SPP1000/16 16 PA Risc 7100
Mehr8. Business Brunch 2015
8. Business Brunch 2015 WDM-Komplett-Paket Referent: Angela Bösche Leiterin Key Account Management Pan Dacom Direkt GmbH Agenda Was ist WDM? Von der Glasfaseranmietung bis zum Betrieb und Support des WDM-Systems
MehrBenchmark-Anforderungen im Beschaffungsprozess der bwforcluster
Benchmark-Anforderungen im Beschaffungsprozess der bwforcluster Bernd Wiebelt, Rechenzentrum, Universität Freiburg Jürgen Salk, kiz, Universität Ulm Steinbuch Centre for Computing (SCC) Funding: www.bwhpc-c5.de
MehrWelchen Mehrwert bietet OM5 in Highspeed Netzen? Tayfun Eren Produktmanager LWL Kabeln
Welchen Mehrwert bietet OM5 in Highspeed Netzen? Tayfun Eren Produktmanager LWL Kabeln 20.03.2018 AGENDA Lichtwellenleiter Grundlage Neue MM-Systeme SWDM Vorteile OM5 LWL-Verkabelung mit OM5 2 Lichtwellenleiter
MehrCHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm
CHiC er Hochleistungs-Linux Cluster Stand HPC Cluster CHiC, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität
MehrProgrammierung und Leistungsanalyse des bwgrid-clusters. Dr. Heinz Kredel und Dr. Hans-Günther Kruse
Programmierung und Leistungsanalyse des bwgrid-clusters Dr. Heinz Kredel und Dr. Hans-Günther Kruse Inhalt bwgrid Cluster Programmierung Threads, OpenMP, Kommunikation, OpenMPI, Strategien Leistungsanalyse
MehrDas Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ
Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ Hinnerk Stüben ZKI-Arbeitskreis Supercomputing Leibniz-Rechenzentrum, Garching 19. Oktober 2015 Themen Neues HPC-Cluster
MehrAusblick auf den HLRN III - die neue HPC Ressource für Norddeutschland
Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 14. März 2013
MehrZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf
ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012 Scientific Computing in Düsseldorf Peter Schreiber schreiber@hhu.de 0211-81-13913 http://www.zim.hhu.de ZKI Arbeitskreis Supercomputing 20.-21.09.2012
MehrOM5 - Nonplusultra oder Flop?
OM5 - Nonplusultra oder Flop? DATA CENTER FORUM 2018 Pius Albisser Senior Engineer Data Centre Solutions 20. März 2018 Ein Beitrag von Pius Albisser Senior Engineer Data Centre Solutions Dätwyler Cabling
Mehrmagnitude Erste Erfahrungen mit dem neuen HPC-System der UDE
magnitude Erste Erfahrungen mit dem neuen HPC-System der UDE ZKI-AK Supercomputing Holger Gollan Agenda Die Universität Duisburg-Essen (UDE) Das Zentrum für Informations- und Mediendienste (ZIM Das Center
Mehrbw-grid Cluster in Mannheim
bw-grid Cluster in Mannheim Dr. Heinz Kredel mit Helmut Fränznick, Rudi Müller, Steffen Hau, Andreas Baust Inhalt Grid und D-Grid BMBF Projekt bw-grid Cluster Stand: Aufbau und Inbetriebnahme Benutzung
MehrErfahrungen mit LSF an der RWTH. Eine kurze Geschichte der LoadSharingFacility
Erfahrungen mit LSF an der RWTH Eine kurze Geschichte der LoadSharingFacility Zeitlinie 2011 Wechsel SGE -> LSF, Bull Cluster, GPU-Cluster 2012 JARA-HPC 2014 Projektbewirtschaftung RWTH 2016 NEC Cluster
MehrXEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25
XEN Performance Projektpraktikum Informatik Arne Klein 2008-02-26 Arne Klein () XEN Performance 2008-02-26 1 / 25 1 Virtualisierung mit XEN 2 Performance von XEN Allgemeines Netzwerk-Performance IO-Performance
MehrPatagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre
Patagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre Felix Rauch Christian Kurmann, Blanca Maria Müller-Lagunez, Thomas M. Stricker Institut für Computersysteme ETH Zürich Eidgenössische Technische
MehrCLAIX Vorstellung und Technik Christian Terboven
CLAIX Vorstellung und Technik Christian Terboven Inhalte CLAIX Phase I Zwei Rack-Reihen + 2 Schränke Testbetrieb mit Projekten seit November 2016 Trier-2 HPC-System Abnahme im Januar 2017 TOP500 im November
MehrGeorg Hager Regionales Rechenzentrum Erlangen (RRZE)
Erfahrungen und Benchmarks mit Dual- -Prozessoren Georg Hager Regionales Rechenzentrum Erlangen (RRZE) ZKI AK Supercomputing Karlsruhe, 22./23.09.2005 Dual : Anbieter heute IBM Power4/Power5 (Power5 mit
MehrHochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner. Dr. Andreas Wolf. Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum
Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Überblick Randbedingungen der HPC Beschaffung an der
MehrHerzlich Willkommen zum Technologieforum OSMO am 16. &
Herzlich Willkommen zum Technologieforum OSMO am 16. & 17.09.2015 Agenda: - Standard LWL-Verbindung - Bidirektionale Übertragung - Wellenlängenmultiplexing - Coarse Wavelength Division Multiplex (CWDM)
MehrStorage-Zugriffsoptimierung mit QFS für TanDEM-X im DLR
Storage-Zugriffsoptimierung mit QFS für TanDEM-X im DLR Matthias Rumitz, dignum 27.05.2011 Das Projekt TanDEM-X wird anteilig durch das Bundesministerium für Wirtschaft und Technologie gefördert (Förderkennzeichen
MehrOracle Real Application Cluster
Oracle Real Application Cluster Björn Bröhl OPITZ CONSULTING Gummersbach GmbH Seite 1 Übersicht Die RAC Architektur RAC Komponenten (Hard- und Software) Oracle Cluster Filesystem vs. Oracle Automatic Storage
MehrNetzwerkperformance 2.0
Netzwerkperformance 2.0 Die KPI`s als Schlüsselfaktoren der Netzwerke Andreas Dobesch, Product Manager DataCenter Forum 2014, Trafo Baden ISATEL Electronic AG Hinterbergstrasse 9 CH 6330 Cham Tel. 041
MehrHands-On Session. Detlef Buerdorff Connect Deutschland Eventmanager buerdorff@connect-community.de. Alexander Niessen Hewlett-Packard GmbH
Hands-On Session Detlef Buerdorff Deutschland Eventmanager buerdorff@connect-community.de Alexander Niessen Hewlett-Packard GmbH Alexander.niessen@hp.com Die Handelsplattform Aufgabenstellung Bereitstellung
MehrDer neue Hessische Hochleistungsrechner HHLR
Der neue Hessische Hochleistungsrechner HHLR Erste Erfahrungen Norbert Conrad, conrad@hrz.tu-darmstadt.de ZKIHessen 26.8.2002 1 Darmstädter Hochleistungsrechner 1987: IBM 3090 VF ( 2 x 0,12 GFLOPS Vektor
MehrZKI AK Supercomputing 2017 Frühjahrstreffen , Duisburg-Essen
ZKI AK Supercomputing 2017 Frühjahrstreffen 16.03. -, Duisburg-Essen Live-Daten und Langzeitstatistiken eines HPC-Systems für verschiedene Interessengruppen bwhpc-projekt Bernd Wiebelt, Konrad Meier, Michael
MehrIntroduction Workshop 11th 12th November 2013
Introduction Workshop 11th 12th November 2013 Lecture I: Hardware and Applications Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Overview Current and next System Hardware Sections
MehrDOAG Konferenz 2007 in Nürnberg
DOAG Konferenz 2007 in Nürnberg Auswahl und Sizing: Die richtige Hardware (+Software) für Oracle Björn Bröhl Projektmanager Handlungsbevollmächtigter Seite 1 Inhalt Die Zielsetzung Vorgehensweise Auswahl
MehrVulnerability Management in der Cloud
Vulnerability Management in der Cloud Risiken eines Deployments Lukas Grunwald 2015-06-17 Version 2014062101 Die Greenbone Networks GmbH Fokus: Vulnerability Management Erkennen von und schützen vor Schwachstellen
MehrCollax V-Cube+ mit Embedded SAN
Collax V-Cube+ mit Embedded SAN Howto Cluster Aufbau und Varianten mit Embedded SAN Beschreibung Dieses Dokument beschreibt, wie in wenigen Schritten ein Zwei-Knoten Cluster mit Hilfe des Produkts V-Cube
MehrMOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz
MOGON Markus Tacke HPC ZDV HPC - AHRP Was ist Mogon allgemein? Das neue High Performance Cluster der JGU Ein neues wichtiges Werkzeug für Auswertung von Messdaten und Simulationen Beispiele Kondensierte
MehrHYPER-CONVERGED INFRASTRUCTURE. Höhere Performance Reduzierte Ausfallzeiten Verbesserte Auslastung Niedrigere Kosten
HYPER-CONVERGED INFRASTRUCTURE Höhere Performance Reduzierte Ausfallzeiten Verbesserte Auslastung Niedrigere Kosten 2 HYPER-CONVERGED INFRASTRUCTURE Infrastrukturlösung mit Die Software läuft direkt auf
MehrUBELIX University of Bern Linux Cluster
University of Bern Linux Cluster Informatikdienste Universität Bern ID BEKO Grid Forum 7. Mai 2007 Inhalt Einführung Ausbau 06/07 Hardware Software Benutzung Dokumentation Gut zu wissen Kontakt Apple/Mac:
MehrHigh Performance Computing am Fraunhofer ITWM
High Performance Computing am Fraunhofer ITWM FhGFS Zielsetzung und Einsatzszenarien 4. März 2010 ZKI Arbeitskreis Supercomputing Dr. Franz-Josef Pfreundt Competence Center for HPC Fraunhofer Institut
MehrDie Marvel, ein gedrosselter Supercomputer
Die Marvel, ein gedrosselter Supercomputer Warum ist die Marvel so schnell? Warum ist die Marvel so langsam? Erfahrungen mit dem Softwaresupport Warum ist die Marvel so schnell? Hardware Z.Cvetanovic,
MehrBlack Box erklärt: 10 Gigabit Technologie
Black Box erklärt: 10 Gigabit Technologie Sie kopieren eine grosse Datei von Ihrem PC auf den Server? Und es dauert mal wieder lange, zu lange? Das sind die Momente, in denen User gerne nach mehr Bandbreite
Mehr2011, Pan Dacom Direkt GmbH. Zukunft der Kommunikation Kommunikation der Zukunft
Zukunft der Kommunikation Kommunikation der Zukunft Zukunft der Kommunikation Kommunikation der Zukunft Ausblick optische DWDM und CWDM Netze: 10G, 40G, 100G, 1T Zukunft oder Fiktion? Referent: Herr Dipl.-Ing.
MehrHLRN III - HPC Ressource für Norddeutschland
HLRN III - HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 23. September 2014 Inhalt Der HLRN Verbund
MehrFluent auf Windows HPC Server 2008. ict ag - Mit uns können Sie rechnen
Fluent auf Windows HPC Server 2008 ict ag - Mit uns können Sie rechnen Historie der ict AG Die ict (information communication technology) AG mit Sitz in Aachen, wurde im Jahre 1985 gegründet und übernimmt
MehrSupermicro Hadoop Lösungen
Supermicro Hadoop Lösungen Die Frage ist nicht, ob Big Data Analytik angewendet wird, sondern wie. Unternehmen, die Hadoop Lösungen anwenden wollen, brauchen hohe Leistung und zuverlässige und skalierbare
MehrOSL UVE Erfahrungen in Projekten 29. November 2017
Impuls-Vortrag OSL UVE Erfahrungen in Projekten 29. November 2017 Vorspann Begriffe OSL UVE: Deutsche Infrastrukturlösung für ein Software-definiertes Datacenter SDDC als Produkt. Hier können, im Gegensatz
MehrWell-Balanced. Performance Tuning
Well-Balanced Real Application Cluster Performance Tuning Über mich virtual7 GmbH Jürgen Bouché Zeppelinstraße 2 76185 Karlsruhe Tel.: +49 (721) 6190170 Fax.: +49 (721) 61901729 Email: jbouche@heine.de
MehrOracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen
DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension
Mehroptimales Sizing für Oracle Application
DOAG SIG Fusion Middleware optimales Sizing für Oracle Application Server Björn Bröhl Bereichsleiter Service Engineering OPITZ CONSULTING Gummersbach GmbH Seite 1 Inhalt Die Zielsetzung Vorgehensweise
MehrEffektive Nutzung der Simulationsumgebung Anregungen für die Praxis
1 2017 ANSYS, 14. Inc. Juni 2017 in June Winterthur 20, 2017 22. SCHWEIZER CADFEM ANSYS SIMULATION CONFERENCE Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis Martin Mann Sales & Acount
MehrNews. 6. Oktober 2011 ZKI Arbeitskreis Supercomputing. Dr. Franz-Josef Pfreundt Competence Center for HPC
News 6. Oktober 2011 ZKI Arbeitskreis Supercomputing Dr. Franz-Josef Pfreundt Competence Center for HPC Fraunhofer Institut für Techno- & Wirtschaftsmathematik Mathematische Modelle Algorithmen Simulation
MehrEinsatz von GPFS an der JGU
Einsatz von GPFS an der JGU HPC@JGU Markus Tacke Leiter HPC ZDV Johannes Gutenberg-Universität Mainz Was Kommt? Umfeld JGU Historie HPC@JGU und seine Daten Aufgabe ATLAS I/O Lösung GPFS!! Ergebnisse.(wird
MehrCentricStor FS. Scale out File Services
CentricStor FS Scale out File Services Richard Schneider Product Marketing Storage 1 Was ist CentricStor FS? CentricStor FS ist ein Speichersystem für das Data Center Zentraler Pool für unstrukturierte
MehrLeistungsanalyse von Rechnersystemen
Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH) Leistungsanalyse von Rechnersystemen Auf Ein-/Ausgabe spezialisierte Benchmarks Zellescher Weg 12 Willers-Bau A109 Tel. +49 351-463 - 32424
MehrTIPC Analyse und Optimierung
There are three kinds of lies: Lies, Damn Lies, and Benchmarks. TIPC Analyse und Optimierung Florian Westphal 13. Juli 2007 1024D/F260502D 1C81 1AD5 EA8F 3047 7555 E8EE 5E2F DA6C F260 502D
MehrDas bwgrid High Performance Compute Cluster als flexible, verteilte Wissenschaftsinfrastruktur
Das bwgrid High Performance Compute Cluster als flexible, verteilte Wissenschaftsinfrastruktur Marek Dynowski (Universität Freiburg) Michael Janczyk (Universität Freiburg) Janne Schulz (Universität Freiburg)
Mehr<Insert Picture Here> RAC Architektur und Installation
RAC Architektur und Installation Elmar Ströhmer Michael Künzner Oracle Server Technologies Competence Center Agenda Überblick und Architekturen von HA-Systemen Hardware Die Basis
MehrErfahrungsbericht, Konsolidierung und Administration Real Application Cluster
Erfahrungsbericht, Konsolidierung und Administration Real Application Cluster Themen Über mich Projekt RAC bei Heine Probleme Resultate Fragen 2 Über mich virtual7 GmbH Jürgen Bouché Zeppelinstraße 2 76185
MehrDer kleine Fiber Guide
Der kleine Fiber Guide Kabel, Stecker, Optiken - eine Übersicht Matthias Cramer Copyright c 2015-2018 Matthias Cramer PUBLISHED BY FREESTONE SYSTEMS WWW.FREESTONE.NET Licensed under the Creative Commons
MehrEinführungs-Workshop Februar Übersicht
Einführungs-Workshop ebruar 2013 Übersicht rogramm 27.2.2013 Vormittag Workshop 9:00 Christian Iwainsky SC: Best ractise Tuning 9:30 Dr.-Ing. Dörte C. Sternell NB: ASTEST 10:00 Kurs I: Die ersten Schritte
MehrHochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen
Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem hristian Terboven Rechen- und Kommunikationszentrum RWTH Aachen 1 Hochleistungsrechnen mit Windows enter omputing and ommunication
MehrNutzung paralleler Prozesse bei der Umweltsimulation
Nutzung paralleler Prozesse bei der Umweltsimulation RALF Wieland rwieland@zalf.de ZALF/LSA Nutzung paralleler Prozesse bei der Umweltsimulation p. 1 Warum parallele Prozesse? Die Steigerung der Taktfrequenz
MehrRAC mit Oracle 10g Standard Edition und ASM
RAC mit Oracle 10g Standard Edition und ASM DOAG Regional-Treffen Stuttgart 20. Januar 2005 Manfred Wisotzky und Sandro Crepaldi RAC mit Oracle 10g Standard Edition > Einleitung > Projekt Hardware > Betriebssysteme
MehrDeep Learning Appliance 4U Die Ready-to-Brain Komplett-Lösung
www.cadnetwork.de/deeplearning Die Ready-to-Brain Komplett-Lösung DIE KOMPLETTLÖSUNG FÜR IHRE AI PROJEKTE Die ist unser 8-GPU Flaggschiff für AI Anwendungen. Sie liefert das Potential für anspruchsvollste
MehrRuprecht-Karls-Universität Heidelberg
Ruprecht-Karls-Universität Heidelberg PS: Themen der technischen Informatik Sommersemester 2013 Referentin: Hanna Khoury Betreuer: Prof. Dr. Ulrich Brüning, Dr. Frank Lemke Datum: 10.06.2014 1) Einige
Mehr3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN?
3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN? Udo Schaefer Berlin, den 10. November 2011 DIE NETZE UND IHRE NUTZUNG Berechnungsgrundlage 800 Millionen Facebook Nutzer Transport
MehrJulian Kunkel. ZKI-Arbeitskreis Supercomputing
Julian Kunkel ZKI-Arbeitskreis Supercomputing Motivation Job-Statistiken Verfügbare Metriken Technische Umsetzung HPSS-Monitoring DKRZ, ZKI, 05.03.2010, Julian Kunkel 2 Transparenz! Unter minimalen Leistungseinbußen
MehrSPEICHER-NETZWERKBETRIEB
SpeicherNETZWERKBETRIEB FIBRE CHANNEL Vom Rechenzentrum zu den Arbeitsgruppen und bis an die Unternehmensgrenzen liefert QLogic ein umfassendes Portfolio von Adaptern, Switches und Routern für iscsi- und
MehrPerformance Engineering: Forschung und Dienstleistung für HPC-Kunden. Dirk Schmidl
Performance Engineering: Forschung und Dienstleistung für HPC-Kunden Hardware Komplexität GPU KNL MPI L U S T R E SMP Claix NVMe HOME Storage OPA Die Komplexität moderner HPC Systeme erfordert Optimierung
MehrSchneller als Hadoop?
Schneller als Hadoop? Einführung in Spark Cluster Computing 19.11.2013 Dirk Reinemann 1 Agenda 1. Einführung 2. Motivation 3. Infrastruktur 4. Performance 5. Ausblick 19.11.2013 Dirk Reinemann 2 EINFÜHRUNG
MehrODA Erfahrungen und Neuigkeiten
ODA Erfahrungen und Neuigkeiten Dierk Lenz 25. Oktober 2017 Köln Oracle Database Appliance (ODA) Mitglied der Familie der Oracle Engineered Systems, d.h.: Hardware und Software (Betriebssystem, Datenbank)
MehrJulian Kunkel. ZKI-Arbeitskreis Supercomputing
Julian Kunkel ZKI-Arbeitskreis Supercomputing Motivation Job-Statistiken Verfügbare Metriken Technische Umsetzung HPSS-Monitoring DKRZ, ZKI, 05.03.2010, Julian Kunkel 2 Transparenz! Unter minimalen Leistungseinbußen
MehrVON DER WOLKE IN DEN NEBEL
VON DER WOLKE IN DEN NEBEL RZ INFRASTRUKTUREN FÜR "THE EDGE" Dr. Peter Koch VP Solutions - Integrated Rack Systems EMEA 23. März 2017 VERTIV PORTFOLIO Emerson Network Power ist jetzt 2 wozu? wie? weshalb?
MehrGPGPUs am Jülich Supercomputing Centre
GPGPUs am Jülich Supercomputing Centre 20. April 2012 Jochen Kreutz Jülich Supercomputing Centre (JSC) Teil des Forschungszentrums Jülich und des Institute for Advanced Simulation (IAS) betreibt Supercomputer
MehrDiskless Cluster und Lustre Erfahrungsbericht zum CHiC
Diskless Cluster und Lustre Erfahrungsbericht zum CHiC, Torsten Hoefler, Torsten Mehlan und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität
MehrProCurve Zubehör für Switches
ProCurve Zubehör für Switches 221 ProCurve Mini-GBICs und SFPs ProCurve Gigabit-SX-LC Mini-GBIC (J4858C) 1 LC 1000Base-SX-Port (IEEE 802.3z Typ 1000Base-SX) Maße (T x B x H): 5,69 x 1,37 x 1,23 cm Gewicht:
MehrPostgreSQL im Cluster. Hans-Jürgen Schönig Hans-Jürgen Schönig
PostgreSQL im Cluster Über uns PostgreSQL Dienstleistungen Cybertec bietet Ihnen... 24x7 Support für PostgreSQL PostgreSQL Consulting Performance Tuning PostgreSQL Training Cloud & Clustering PostgreSQL
MehrManycores: Hardware und Low-Level Programmierung
Manycores: Hardware und Low-Level Programmierung Florian Sattler Universität Passau 18. Juni 2014 Übersicht Einführung Neue Architekturen Programmierung Supercomputing Fazit 2 / 29 Top 500 3 / 29 Motivation
MehrInfiniband Diagnose und Cluster HealthCheck Arbeitskreis Supercomputing Hamburg, 2010-03-05 Peter Niessen support@par-tec.com
ParTec Cluster Competence Center GmbH Infiniband Diagnose und Cluster HealthCheck Arbeitskreis Supercomputing Hamburg, 2010-03-05 Peter Niessen support@par-tec.com 1 JuRoPA JSC: Sun Blade SB6048 2208 Compute
MehrDer kleine Fiber Guide
Der kleine Fiber Guide Kabel, Stecker, Optiken - eine Übersicht Matthias Cramer Copyright c 2015-2018 Matthias Cramer PUBLISHED BY FREESTONE SYSTEMS WWW.FREESTONE.NET Licensed under the Creative Commons
MehrBeispielvortrag: HPCG auf Intel Haswell-EP
Beispielvortrag: HPCG auf Intel Haswell-EP Johannes Hofmann 1 Seminarvortrag Architekturen von Multi- und Vielkern-Prozessoren Erlangen, 19.4.2016 1 Computer Architecture, University Erlangen-Nuremberg
MehrVerteilte Betriebssysteme
Verteiltes System Eine Sammlung unabhängiger Rechner, die dem Benutzer den Eindruck vermitteln, es handle sich um ein einziges System. Verteiltes Betriebssystem Betriebssystem für verteilte Systeme Verwaltet
MehrP R Ä S E N T I E R T. LC Duplex, SFP spacing. MTP, mit Pins (male): MTP/m. MTP, ohne Pins (female): MTP/f. EDGE Module (Kassette), MTP/m auf LC Dup
P R Ä S E N T I E R T Betrachtungsweisen für die 40G und 00G Migration in der Data Center Verkabelung Joergen Janson Data Center Marketing Spezialist Legende LC Duplex, SFP spacing MTP, mit Pins (male)
MehrRechnernetze I. Rechnernetze I. 1 Einführung SS Universität Siegen Tel.: 0271/ , Büro: H-B 8404
Rechnernetze I SS 2012 Universität Siegen rolanda.dwismuellera@duni-siegena.de Tel.: 0271/740-4050, Büro: H-B 8404 Stand: 20. April 2012 Betriebssysteme / verteilte Systeme Rechnernetze I (1/12) i Rechnernetze
Mehrautomotive supplier (part II)
HPC @ automotive supplier (part II) AGENDA 01 Zwei in eins ein dual-cluster System 02 Das Herzstück der Storage 15.03.2017 2 FALSCH ZUGEORDNETE ZITATE DIE KÄNGURU CHRONIKEN VON MARC-UWE KLING Ehrlich währt
MehrXIV Storage reinvented
Manuel Schweiger Technical Sales Support Storage XIV Storage reinvented Architektur: Gestern, heute, morgen Zentraler Cache, CPU, Backplane Spezielles HW Design -> Hohe Kosten Manuelles Tuning notwendig
Mehrtranstec Entry Level HPC Cluster
Entry Level HPC Cluster Komplettes HPC Clustersystem inklusive Installation und Lieferung Nicht genug Knoten? Fragen zu dem System? Kontaktieren Sie uns unter: 01/726 60 90 oder @.at Position 1: Rack 19"
MehrPVFS (Parallel Virtual File System)
Management grosser Datenmengen PVFS (Parallel Virtual File System) Thorsten Schütt thorsten.schuett@zib.de Management grosser Datenmengen p.1/?? Inhalt Einführung in verteilte Dateisysteme Architektur
MehrManagement Cluster und MU-Redundanz
Freigabeseminar FUJITSU Software BS2000 OSD/BC V11.0 und FUJITSU Server BS2000 SE Serie Management Cluster und MU-Redundanz Rainer Neuburger, BS2000 Qualitätssicherung München, 19. Oktober 2017 0 2017
MehrDatenbankspiegelung mit (Active) Data Guard. und Abgrenzung
Datenbankspiegelung mit (Active) Data Guard und Abgrenzung ORACLE Deutschland B.V. & Co. KG Stephan Haas Server Technology Competence Center Agenda Überblick Oracle DataGuard Oracle
MehrRDMA oder: Wie ich lernte, 100 Gb/s Netzwerke zu lieben
RDMA oder: Wie ich lernte, 100 Gb/s Netzwerke zu lieben Jan Kappen Microsoft MVP Cloud and Datacenter Management IT Consultant bei Rachfahl IT-Solutions Trainer Buch Autor Blogger Blog: hyper-v-server.de
MehrOXO³ technische Aspekte der Oracle EMEA internen BI Implementierung
OXO³ technische Aspekte der Oracle EMEA internen BI Implementierung Bojan Milijaš (bojan.milijas@oracle.com) Senior Business Analyst (OCP) ORACLE Deutschland GmbH Kennen Sie das Sprichwort
MehrHochleistungs-Disk-I/O
Hochleistungs-Disk-I/O mit Lustre, dcache und AFS eine vergleichende Betrachtung Stephan Wiesand DESY DV 33. Treffen des ZKI AK Supercomputing Hamburg, 2010-03-04 Computing am DESY Standort Zeuthen Batch
Mehr