Infiniband Kopplung Heidelberg Mannheim

Größe: px
Ab Seite anzeigen:

Download "Infiniband Kopplung Heidelberg Mannheim"

Transkript

1 Infiniband Kopplung Heidelberg Mannheim Tests aktueller Komponenten und Pläne für den Ausbau S. Richling, S. Friedel (Universität Heidelberg) S. Hau, H. Kredel (Universität Mannheim) Förderträger:

2 Infiniband Kopplung Heidelberg Mannheim Derzeitiger Ausbau für bwgrid Cluster Mannheim Cluster Heidelberg Infiniband Entfernung 28 km Infiniband Infiniband über Ethernet über Glasfaser Infiniband (2 Gbit/sec) Ethernet (1 Gbit/sec) mit Obsidian Longbow stabil in Betrieb seit Juli 29 eine Cluster-Administration mit einem Batchsystem eine Benutzerverwaltung, die verschiedene Quellen integriert: LDAP (MA), AD (HD), Grid-Zertifikate, Shibboleth 2 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim

3 Infiniband Kopplung Heidelberg Mannheim Latenz und Bandbreite bwgrid Latency [µsec] IMB: PingPong buffer size GB Bandwidth [Mbytes/sec] IMB: PingPong buffer size 1 GB May 213 Jun 213 Jul 213 Time [Month Year] Aug 213 Sep 213 May 213 Jun 213 Jul 213 Aug 213 Time [Month Year] Sep 213 Lichtlaufzeit (28 km) 143 µsec Latenz (Cluster) +2 µsec Latenz (MPI) 145 µsec Bandbreite (MPI) 93 MByte/sec Latenz/Bandbreite nicht gut genug für standortübergreifende Jobs 3 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim

4 Infiniband Kopplung Heidelberg Mannheim IO Performance bwgrid Bandwidth [Mbytes/sec] IOzone Benchmark (32 GB File in 4 MB Records) Read Write Bandwidth [Mbytes/sec] MPI IO Benchmark (N Procs write N Files with 5 MB in 1 MB Records) 64 Procs 32 Procs 16 Procs 8 Procs MA MA HD MA MA HD HD HD Node Location Storage Location MA MA HD MA MA HD HD HD Node Location Storage Location Bandbreite ausreichend für Zugriff auf Storage-Systeme: Mannheim(MA) $HOME und Heidelberg(HD) $SCRATCH IO Performance nahezu unabhängig vom Zugriffsweg (Zugriff auf lokales oder entferntes Speichersystem) 4 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim

5 bwhpc Leistungspyramide 5 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim

6 bwforcluster Forschungsgebiete nach Standort 6 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim

7 bwforcluster MLS&WISO Standort Heidelberg/Mannheim Forschungsschwerpunkte Molekulare Lebenswissenschaften Wirtschafts- und Sozialwissenschaften Wissenschaftliches Rechnen Projektpartner 7 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim

8 Inifiniband Kopplung Heidelberg Mannheim Überlegungen zum Ausbau für den bwforcluster Gründe für die Fortsetzung der Kopplung: Bündelung und Ausbau von Kompetenzen (RUM, URZ, IWR) Optimale Nutzung der Rechnerräume (Platz, Betriebskosten) Erhöhte Verfügbarkeit und Ausfallsicherheit Netzwerk-Voraussetzungen für den Ausbau: Kapazität der Glasfaser ausreichend (Dark Fiber) Netzwerkkomponenten für Nutzung paralleler Kanäle nötig 4 Gbit/sec Bandbreite möglich mit aktuell verfügbaren Netzwerkkomponenten Infiniband Ethernet Durchsatzraten von aktuellen Speichersystemen sollen bedient werden (mehrere GByte/sec) Kosten für die Kopplung sollen im Rahmen bleiben Plan: Ausbau auf 4 x 4 Gbit/sec = 16 Gbit/sec 8 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim

9 Performance Modell für verteilte Cluster Kredel et al. 212 (DOI 1.17/s ) Wenige Hardware-Parameter Cluster I 1 Bandbreite b E Cluster I 2 n l th b I Anzahl Kerne Performance Kern Bandbreite n l th b I Anzahl Kerne Performance Kern Bandbreite Wenige Parameter für die Anwendung #op Zahl der Rechenoperationen #b Anzahl Bytes (Datenmenge) #x Anzahl der ausgetauschten Bytes Skizze Performance Modell Laufzeit auf einem Cluster: t 1 = Rechenzeit + Kommunikation(b I ) Laufzeit auf zwei Clustern: t 2 = t 1 (mit halber Load) + Kommunikation(b E ) Ergebnis: Speedup für eine Anwendung für eine bestimmte Hardware 9 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim

10 Standortübergreifende MPI Performance Erwartungen für bwforcluster nach dem Performance Modell HPL (matrix size 4) inter cluster bandwidth 1 GB/sec 5 GB/sec 1 GB/sec speedup number of cores Ergebnis für kommunikationsintensive Anwendungen: Lineare Skalierung bis etwa n = 1 für b E = 1 GByte/sec. 1-fache Bandbreite erhöht die Skalierbarkeit um Faktor 3. Standortübergreifende Jobs für bestimmte Anwendungen sinnvoll? 1 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim

11 Infiniband über größere Entfernungen Technische Möglichkeiten Mellanox MetroX Long Haul Series Infiniband über Ethernet über Glasfaser 56 Gbit/sec Infiniband 4x1 Gbit/sec Ethernet Obsidian Longbow C-Series Infiniband über Ethernet über Glasfaser QDR Infiniband 4x1 Gbit/sec Ethernet Wellenlängenmultiplexer zur Nutzung mehrerer Farbkanäle (Bildquelle: Pan DaCom) 11 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim

12 Teststellung mit Mellanox Aufbau (September 213) Mellanox MetroX TX61 Switche (bis 1 km) Pan Dacom DWDM System SPEED-OTS-5 HPC-Cluster Helics3a (IWR, Universität Heidelberg) 32 Knoten mit 4 x 8 Core AMD Opteron Mellanox 4G QDR single 4 Knoten verbunden über MetroX (1 x 4 Gbit/sec) Test-Entfernungen: 1 km, 2 km, 33 km Remote-Unterstützung durch Mellanox Entwickler 12 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim

13 Teststellung mit Mellanox Konfiguration (PoC) 4 Gbit/s Infiniband --> 4 x 1 Gbit/s --> DWDM? SPEED-WDM System XFP/ DWDM SFP+ XFP Ch nm - km (Back to Back) - 2 km - 4 km - 6 km - 8 km Test Traffic HPC? QSFP? Mellanox Metro X QSFP-LR CWDM MUX SCWDM-161 SCWDM-81E 129 nm 131 nm 133 nm Transponder 3R - SSL XFP - SSL XFP 3R - SDL 1G - SDL 16G DWDM MUX SDWDM-81E-34/41 Faser - Fasertrommel oder - Freie Kanäle Dämpfung (Mannheim - Heidelberg) - AOC Kabel - MPO Crossover Kabel - FAN OUT Kabel - LC Duplex - Patchkabel - Patchkabel LC-LC - Patchkabel LC-LC - Patchkabel LC-LC 13 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim

14 Teststellung mit Mellanox Ergebnis Latenz und Bandbreite Latency [µsec] MetroX bwgrid IMB: PingPong Distance [km] Bandwidth [MByte/sec] local 1 km 2 km 33 km IMB: PingPong Message size [byte] Latenz für 33 km wie erwartet hoch. MPI-Bandbreite bei 1 x 4 Gbit/sec: 2.6 GByte/sec bis 33 km Erwartung MPI-Bandbreite bei 4 x 4 Gbit/sec: 1 GByte/sec 14 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim

15 Teststellung mit Obsidian Aufbau (April 214) Obsidian Longbow C4 Pan Dacom SPEED-CWDM 161 HPC-Cluster Helics3a (IWR, Universität Heidelberg) 32 Knoten mit 4 x 8 Core AMD Opteron Mellanox 4G QDR single 4 Knoten verbunden über Obsidian Longbow (1 x 4 Gbit/sec) Test-Entfernung: 33 km 15 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim

16 Teststellung mit Obsidian Ergebnis Latenz und Bandbreite latency [µsec] IMB Ping-Pong Obsidian test bwgrid distance [km] bandwidth [MByte/sec] local 33 km IMB Ping-Pong message size [byte] Latenz für 33 km wie erwartet hoch. MPI-Bandbreite bei 1 x 4 Gbit/sec: 2.6 GByte/sec bis 33 km Erwartung MPI-Bandbreite bei 4 x 4 Gbit/sec: 1 GByte/sec 16 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim

17 Vergleich der Teststellungen Ergebnisse Bandbreite bandwidth [MByte/sec] IMB Ping-Pong local 33 km Obsidian 33 km Mellanox single job message size [byte] bandwidth [MByte/sec] IMB Ping-Pong local 33 km Obsidian 33 km Mellanox 4 jobs at the same time message size [byte] Software gleich: IMB 3.2, Intel Compiler , OpenMPI Job: Bandbreite gleich, kleine Abweichung bei hoher Paketgröße 4 Jobs gleichzeitig: Bandbreite innerhalb der Fehlergrenzen gleich, Sättigung der Leitung erreicht 17 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim

18 Zusammenfassung Infiniband Kopplung zum Betrieb eines verteilten Clusters stabil und dauerhaft möglich Fortführung des Konzeptes für neuen Cluster Teststellungen mit aktueller Technik Funktionstests für 1 x 4 Gbit/sec mit Technik von Mellanox und Obsidian durchgeführt Ergebnis: Beide Techniken sind für uns einsetzbar. Offene Punkte Lasttest über längeren Zeitraum Lastverteilung bei 4 x 4 Gbit/sec Verhalten im Produktionsbetrieb 18 ZKI AK Supercomputing Infiniband Kopplung Heidelberg Mannheim

Kopplung der bwgrid Cluster. Heidelberg und Mannheim

Kopplung der bwgrid Cluster. Heidelberg und Mannheim Kopplung der bwgrid Cluster von Heidelberg und Mannheim Steffen Hau, Heinz Kredel, Sabine Richling, Rolf Bogus ZKI AK Supercomputing, zib, FU Berlin, Oktober 2009 Inhalt Heidelberg und Mannheim bwgrid

Mehr

Next Generation DWDM-System 200 Gbit/s Muxponder und AES 256 Verschlüsselung

Next Generation DWDM-System 200 Gbit/s Muxponder und AES 256 Verschlüsselung 9. Business Brunch 2017 Next Generation DWDM-System 200 Gbit/s Muxponder und AES 256 Verschlüsselung Referent: Markus Förster Leiter Produktmanagement Pan Dacom Direkt GmbH vertraulich Highspeed Data Center

Mehr

Storage Optionen für I/O intensive Applikationen

Storage Optionen für I/O intensive Applikationen Storage Optionen für I/O intensive Applikationen SSCS Team Ulm Christian Mosch, Karsten Siegmund, Jürgen Salk, Matthias Neuer, Vladimir Kushnarenko, Stefan Kombrink, Thomas Nau, Stefan Wesner Steinbuch

Mehr

Cluster-Benutzerverwaltung: erste Schritte mit Shibboleth

Cluster-Benutzerverwaltung: erste Schritte mit Shibboleth Cluster-Benutzerverwaltung: erste Schritte mit Shibboleth Steffen Hau, Reinhard Mayer, Sabine Richling, Tobias Kienzle, Heinz Kredel Rechenzentrum Universität Mannheim Universitätsrechenzentrum Heidelberg

Mehr

Cluster-Computing am Beispiel bwgrid. Dr. Heinz Kredel Rechenzentrum der Universität Mannheim

Cluster-Computing am Beispiel bwgrid. Dr. Heinz Kredel Rechenzentrum der Universität Mannheim Cluster-Computing am Beispiel bwgrid Dr. Heinz Kredel Rechenzentrum der Universität Mannheim Inhalt Grid bwgrid Cluster Cluster Administration und Betrieb Cluster Nutzung Grid The Grid is a system that:

Mehr

Einführung in wiss. Software. bwgrid-cluster

Einführung in wiss. Software. bwgrid-cluster Einführung in wiss. Software auf dem bwgrid-cluster Dr. Heinz Kredel und Dr. Sabine Richling Inhalt bwgrid Cluster Java Programmierung Java Threads, Java OpenMP, TCP/IP Kommunikation, Java MPP, Strategien

Mehr

Linux in allen Lebenslagen. Diskless Cluster und Lustre Erfahrungsbericht zum CHiC. Frank Mietke. Chemnitzer Linux-Tage 2007

Linux in allen Lebenslagen. Diskless Cluster und Lustre Erfahrungsbericht zum CHiC. Frank Mietke. Chemnitzer Linux-Tage 2007 Linux in allen Lebenslagen Diskless Cluster und Lustre Erfahrungsbericht zum CHiC Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität Chemnitz Chemnitzer

Mehr

T-Systems SfR - HPCN Workshop

T-Systems SfR - HPCN Workshop HPC System Design und die Auswirkungen auf die Anwendungsperformance Thomas Alrutz HPC & escience Solutions & Innovations - Scientific & Technical ICT T-Systems Solutions for Research GmbH T-Systems SfR

Mehr

Produkt-Update SPEED-OTS-5000

Produkt-Update SPEED-OTS-5000 8. Business Brunch 2015 Produkt-Update SPEED-OTS-5000 Referent: Markus Förster Martin Ebeling Georg Dürr Pan Dacom Direkt GmbH Produkt-Update SPEED-OTS-5000 SPEED-Management-Software SPEED-Systemkarten

Mehr

HPC an der Uni Mainz

HPC an der Uni Mainz Einwicklung vom ersten Top500 Rechner bis zum AHRP HPC - AHRP - ZKI Markus Tacke, ZDV, Universität Mainz AK Supercomputer Kaiserslautern 19.4.2012 ZDV: CC NUMA 1.1.1995: Convex SPP1000/16 16 PA Risc 7100

Mehr

8. Business Brunch 2015

8. Business Brunch 2015 8. Business Brunch 2015 WDM-Komplett-Paket Referent: Angela Bösche Leiterin Key Account Management Pan Dacom Direkt GmbH Agenda Was ist WDM? Von der Glasfaseranmietung bis zum Betrieb und Support des WDM-Systems

Mehr

Benchmark-Anforderungen im Beschaffungsprozess der bwforcluster

Benchmark-Anforderungen im Beschaffungsprozess der bwforcluster Benchmark-Anforderungen im Beschaffungsprozess der bwforcluster Bernd Wiebelt, Rechenzentrum, Universität Freiburg Jürgen Salk, kiz, Universität Ulm Steinbuch Centre for Computing (SCC) Funding: www.bwhpc-c5.de

Mehr

Welchen Mehrwert bietet OM5 in Highspeed Netzen? Tayfun Eren Produktmanager LWL Kabeln

Welchen Mehrwert bietet OM5 in Highspeed Netzen? Tayfun Eren Produktmanager LWL Kabeln Welchen Mehrwert bietet OM5 in Highspeed Netzen? Tayfun Eren Produktmanager LWL Kabeln 20.03.2018 AGENDA Lichtwellenleiter Grundlage Neue MM-Systeme SWDM Vorteile OM5 LWL-Verkabelung mit OM5 2 Lichtwellenleiter

Mehr

CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm

CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm CHiC er Hochleistungs-Linux Cluster Stand HPC Cluster CHiC, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität

Mehr

Programmierung und Leistungsanalyse des bwgrid-clusters. Dr. Heinz Kredel und Dr. Hans-Günther Kruse

Programmierung und Leistungsanalyse des bwgrid-clusters. Dr. Heinz Kredel und Dr. Hans-Günther Kruse Programmierung und Leistungsanalyse des bwgrid-clusters Dr. Heinz Kredel und Dr. Hans-Günther Kruse Inhalt bwgrid Cluster Programmierung Threads, OpenMP, Kommunikation, OpenMPI, Strategien Leistungsanalyse

Mehr

Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ

Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ Hinnerk Stüben ZKI-Arbeitskreis Supercomputing Leibniz-Rechenzentrum, Garching 19. Oktober 2015 Themen Neues HPC-Cluster

Mehr

Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland

Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 14. März 2013

Mehr

ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf

ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012 Scientific Computing in Düsseldorf Peter Schreiber schreiber@hhu.de 0211-81-13913 http://www.zim.hhu.de ZKI Arbeitskreis Supercomputing 20.-21.09.2012

Mehr

OM5 - Nonplusultra oder Flop?

OM5 - Nonplusultra oder Flop? OM5 - Nonplusultra oder Flop? DATA CENTER FORUM 2018 Pius Albisser Senior Engineer Data Centre Solutions 20. März 2018 Ein Beitrag von Pius Albisser Senior Engineer Data Centre Solutions Dätwyler Cabling

Mehr

magnitude Erste Erfahrungen mit dem neuen HPC-System der UDE

magnitude Erste Erfahrungen mit dem neuen HPC-System der UDE magnitude Erste Erfahrungen mit dem neuen HPC-System der UDE ZKI-AK Supercomputing Holger Gollan Agenda Die Universität Duisburg-Essen (UDE) Das Zentrum für Informations- und Mediendienste (ZIM Das Center

Mehr

bw-grid Cluster in Mannheim

bw-grid Cluster in Mannheim bw-grid Cluster in Mannheim Dr. Heinz Kredel mit Helmut Fränznick, Rudi Müller, Steffen Hau, Andreas Baust Inhalt Grid und D-Grid BMBF Projekt bw-grid Cluster Stand: Aufbau und Inbetriebnahme Benutzung

Mehr

Erfahrungen mit LSF an der RWTH. Eine kurze Geschichte der LoadSharingFacility

Erfahrungen mit LSF an der RWTH. Eine kurze Geschichte der LoadSharingFacility Erfahrungen mit LSF an der RWTH Eine kurze Geschichte der LoadSharingFacility Zeitlinie 2011 Wechsel SGE -> LSF, Bull Cluster, GPU-Cluster 2012 JARA-HPC 2014 Projektbewirtschaftung RWTH 2016 NEC Cluster

Mehr

XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25

XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25 XEN Performance Projektpraktikum Informatik Arne Klein 2008-02-26 Arne Klein () XEN Performance 2008-02-26 1 / 25 1 Virtualisierung mit XEN 2 Performance von XEN Allgemeines Netzwerk-Performance IO-Performance

Mehr

Patagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre

Patagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre Patagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre Felix Rauch Christian Kurmann, Blanca Maria Müller-Lagunez, Thomas M. Stricker Institut für Computersysteme ETH Zürich Eidgenössische Technische

Mehr

CLAIX Vorstellung und Technik Christian Terboven

CLAIX Vorstellung und Technik Christian Terboven CLAIX Vorstellung und Technik Christian Terboven Inhalte CLAIX Phase I Zwei Rack-Reihen + 2 Schränke Testbetrieb mit Projekten seit November 2016 Trier-2 HPC-System Abnahme im Januar 2017 TOP500 im November

Mehr

Georg Hager Regionales Rechenzentrum Erlangen (RRZE)

Georg Hager Regionales Rechenzentrum Erlangen (RRZE) Erfahrungen und Benchmarks mit Dual- -Prozessoren Georg Hager Regionales Rechenzentrum Erlangen (RRZE) ZKI AK Supercomputing Karlsruhe, 22./23.09.2005 Dual : Anbieter heute IBM Power4/Power5 (Power5 mit

Mehr

Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner. Dr. Andreas Wolf. Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum

Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner. Dr. Andreas Wolf. Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Überblick Randbedingungen der HPC Beschaffung an der

Mehr

Herzlich Willkommen zum Technologieforum OSMO am 16. &

Herzlich Willkommen zum Technologieforum OSMO am 16. & Herzlich Willkommen zum Technologieforum OSMO am 16. & 17.09.2015 Agenda: - Standard LWL-Verbindung - Bidirektionale Übertragung - Wellenlängenmultiplexing - Coarse Wavelength Division Multiplex (CWDM)

Mehr

Storage-Zugriffsoptimierung mit QFS für TanDEM-X im DLR

Storage-Zugriffsoptimierung mit QFS für TanDEM-X im DLR Storage-Zugriffsoptimierung mit QFS für TanDEM-X im DLR Matthias Rumitz, dignum 27.05.2011 Das Projekt TanDEM-X wird anteilig durch das Bundesministerium für Wirtschaft und Technologie gefördert (Förderkennzeichen

Mehr

Oracle Real Application Cluster

Oracle Real Application Cluster Oracle Real Application Cluster Björn Bröhl OPITZ CONSULTING Gummersbach GmbH Seite 1 Übersicht Die RAC Architektur RAC Komponenten (Hard- und Software) Oracle Cluster Filesystem vs. Oracle Automatic Storage

Mehr

Netzwerkperformance 2.0

Netzwerkperformance 2.0 Netzwerkperformance 2.0 Die KPI`s als Schlüsselfaktoren der Netzwerke Andreas Dobesch, Product Manager DataCenter Forum 2014, Trafo Baden ISATEL Electronic AG Hinterbergstrasse 9 CH 6330 Cham Tel. 041

Mehr

Hands-On Session. Detlef Buerdorff Connect Deutschland Eventmanager buerdorff@connect-community.de. Alexander Niessen Hewlett-Packard GmbH

Hands-On Session. Detlef Buerdorff Connect Deutschland Eventmanager buerdorff@connect-community.de. Alexander Niessen Hewlett-Packard GmbH Hands-On Session Detlef Buerdorff Deutschland Eventmanager buerdorff@connect-community.de Alexander Niessen Hewlett-Packard GmbH Alexander.niessen@hp.com Die Handelsplattform Aufgabenstellung Bereitstellung

Mehr

Der neue Hessische Hochleistungsrechner HHLR

Der neue Hessische Hochleistungsrechner HHLR Der neue Hessische Hochleistungsrechner HHLR Erste Erfahrungen Norbert Conrad, conrad@hrz.tu-darmstadt.de ZKIHessen 26.8.2002 1 Darmstädter Hochleistungsrechner 1987: IBM 3090 VF ( 2 x 0,12 GFLOPS Vektor

Mehr

ZKI AK Supercomputing 2017 Frühjahrstreffen , Duisburg-Essen

ZKI AK Supercomputing 2017 Frühjahrstreffen , Duisburg-Essen ZKI AK Supercomputing 2017 Frühjahrstreffen 16.03. -, Duisburg-Essen Live-Daten und Langzeitstatistiken eines HPC-Systems für verschiedene Interessengruppen bwhpc-projekt Bernd Wiebelt, Konrad Meier, Michael

Mehr

Introduction Workshop 11th 12th November 2013

Introduction Workshop 11th 12th November 2013 Introduction Workshop 11th 12th November 2013 Lecture I: Hardware and Applications Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Overview Current and next System Hardware Sections

Mehr

DOAG Konferenz 2007 in Nürnberg

DOAG Konferenz 2007 in Nürnberg DOAG Konferenz 2007 in Nürnberg Auswahl und Sizing: Die richtige Hardware (+Software) für Oracle Björn Bröhl Projektmanager Handlungsbevollmächtigter Seite 1 Inhalt Die Zielsetzung Vorgehensweise Auswahl

Mehr

Vulnerability Management in der Cloud

Vulnerability Management in der Cloud Vulnerability Management in der Cloud Risiken eines Deployments Lukas Grunwald 2015-06-17 Version 2014062101 Die Greenbone Networks GmbH Fokus: Vulnerability Management Erkennen von und schützen vor Schwachstellen

Mehr

Collax V-Cube+ mit Embedded SAN

Collax V-Cube+ mit Embedded SAN Collax V-Cube+ mit Embedded SAN Howto Cluster Aufbau und Varianten mit Embedded SAN Beschreibung Dieses Dokument beschreibt, wie in wenigen Schritten ein Zwei-Knoten Cluster mit Hilfe des Produkts V-Cube

Mehr

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz MOGON Markus Tacke HPC ZDV HPC - AHRP Was ist Mogon allgemein? Das neue High Performance Cluster der JGU Ein neues wichtiges Werkzeug für Auswertung von Messdaten und Simulationen Beispiele Kondensierte

Mehr

HYPER-CONVERGED INFRASTRUCTURE. Höhere Performance Reduzierte Ausfallzeiten Verbesserte Auslastung Niedrigere Kosten

HYPER-CONVERGED INFRASTRUCTURE. Höhere Performance Reduzierte Ausfallzeiten Verbesserte Auslastung Niedrigere Kosten HYPER-CONVERGED INFRASTRUCTURE Höhere Performance Reduzierte Ausfallzeiten Verbesserte Auslastung Niedrigere Kosten 2 HYPER-CONVERGED INFRASTRUCTURE Infrastrukturlösung mit Die Software läuft direkt auf

Mehr

UBELIX University of Bern Linux Cluster

UBELIX University of Bern Linux Cluster University of Bern Linux Cluster Informatikdienste Universität Bern ID BEKO Grid Forum 7. Mai 2007 Inhalt Einführung Ausbau 06/07 Hardware Software Benutzung Dokumentation Gut zu wissen Kontakt Apple/Mac:

Mehr

High Performance Computing am Fraunhofer ITWM

High Performance Computing am Fraunhofer ITWM High Performance Computing am Fraunhofer ITWM FhGFS Zielsetzung und Einsatzszenarien 4. März 2010 ZKI Arbeitskreis Supercomputing Dr. Franz-Josef Pfreundt Competence Center for HPC Fraunhofer Institut

Mehr

Die Marvel, ein gedrosselter Supercomputer

Die Marvel, ein gedrosselter Supercomputer Die Marvel, ein gedrosselter Supercomputer Warum ist die Marvel so schnell? Warum ist die Marvel so langsam? Erfahrungen mit dem Softwaresupport Warum ist die Marvel so schnell? Hardware Z.Cvetanovic,

Mehr

Black Box erklärt: 10 Gigabit Technologie

Black Box erklärt: 10 Gigabit Technologie Black Box erklärt: 10 Gigabit Technologie Sie kopieren eine grosse Datei von Ihrem PC auf den Server? Und es dauert mal wieder lange, zu lange? Das sind die Momente, in denen User gerne nach mehr Bandbreite

Mehr

2011, Pan Dacom Direkt GmbH. Zukunft der Kommunikation Kommunikation der Zukunft

2011, Pan Dacom Direkt GmbH. Zukunft der Kommunikation Kommunikation der Zukunft Zukunft der Kommunikation Kommunikation der Zukunft Zukunft der Kommunikation Kommunikation der Zukunft Ausblick optische DWDM und CWDM Netze: 10G, 40G, 100G, 1T Zukunft oder Fiktion? Referent: Herr Dipl.-Ing.

Mehr

HLRN III - HPC Ressource für Norddeutschland

HLRN III - HPC Ressource für Norddeutschland HLRN III - HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 23. September 2014 Inhalt Der HLRN Verbund

Mehr

Fluent auf Windows HPC Server 2008. ict ag - Mit uns können Sie rechnen

Fluent auf Windows HPC Server 2008. ict ag - Mit uns können Sie rechnen Fluent auf Windows HPC Server 2008 ict ag - Mit uns können Sie rechnen Historie der ict AG Die ict (information communication technology) AG mit Sitz in Aachen, wurde im Jahre 1985 gegründet und übernimmt

Mehr

Supermicro Hadoop Lösungen

Supermicro Hadoop Lösungen Supermicro Hadoop Lösungen Die Frage ist nicht, ob Big Data Analytik angewendet wird, sondern wie. Unternehmen, die Hadoop Lösungen anwenden wollen, brauchen hohe Leistung und zuverlässige und skalierbare

Mehr

OSL UVE Erfahrungen in Projekten 29. November 2017

OSL UVE Erfahrungen in Projekten 29. November 2017 Impuls-Vortrag OSL UVE Erfahrungen in Projekten 29. November 2017 Vorspann Begriffe OSL UVE: Deutsche Infrastrukturlösung für ein Software-definiertes Datacenter SDDC als Produkt. Hier können, im Gegensatz

Mehr

Well-Balanced. Performance Tuning

Well-Balanced. Performance Tuning Well-Balanced Real Application Cluster Performance Tuning Über mich virtual7 GmbH Jürgen Bouché Zeppelinstraße 2 76185 Karlsruhe Tel.: +49 (721) 6190170 Fax.: +49 (721) 61901729 Email: jbouche@heine.de

Mehr

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension

Mehr

optimales Sizing für Oracle Application

optimales Sizing für Oracle Application DOAG SIG Fusion Middleware optimales Sizing für Oracle Application Server Björn Bröhl Bereichsleiter Service Engineering OPITZ CONSULTING Gummersbach GmbH Seite 1 Inhalt Die Zielsetzung Vorgehensweise

Mehr

Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis

Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis 1 2017 ANSYS, 14. Inc. Juni 2017 in June Winterthur 20, 2017 22. SCHWEIZER CADFEM ANSYS SIMULATION CONFERENCE Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis Martin Mann Sales & Acount

Mehr

News. 6. Oktober 2011 ZKI Arbeitskreis Supercomputing. Dr. Franz-Josef Pfreundt Competence Center for HPC

News. 6. Oktober 2011 ZKI Arbeitskreis Supercomputing. Dr. Franz-Josef Pfreundt Competence Center for HPC News 6. Oktober 2011 ZKI Arbeitskreis Supercomputing Dr. Franz-Josef Pfreundt Competence Center for HPC Fraunhofer Institut für Techno- & Wirtschaftsmathematik Mathematische Modelle Algorithmen Simulation

Mehr

Einsatz von GPFS an der JGU

Einsatz von GPFS an der JGU Einsatz von GPFS an der JGU HPC@JGU Markus Tacke Leiter HPC ZDV Johannes Gutenberg-Universität Mainz Was Kommt? Umfeld JGU Historie HPC@JGU und seine Daten Aufgabe ATLAS I/O Lösung GPFS!! Ergebnisse.(wird

Mehr

CentricStor FS. Scale out File Services

CentricStor FS. Scale out File Services CentricStor FS Scale out File Services Richard Schneider Product Marketing Storage 1 Was ist CentricStor FS? CentricStor FS ist ein Speichersystem für das Data Center Zentraler Pool für unstrukturierte

Mehr

Leistungsanalyse von Rechnersystemen

Leistungsanalyse von Rechnersystemen Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH) Leistungsanalyse von Rechnersystemen Auf Ein-/Ausgabe spezialisierte Benchmarks Zellescher Weg 12 Willers-Bau A109 Tel. +49 351-463 - 32424

Mehr

TIPC Analyse und Optimierung

TIPC Analyse und Optimierung There are three kinds of lies: Lies, Damn Lies, and Benchmarks. TIPC Analyse und Optimierung Florian Westphal 13. Juli 2007 1024D/F260502D 1C81 1AD5 EA8F 3047 7555 E8EE 5E2F DA6C F260 502D

Mehr

Das bwgrid High Performance Compute Cluster als flexible, verteilte Wissenschaftsinfrastruktur

Das bwgrid High Performance Compute Cluster als flexible, verteilte Wissenschaftsinfrastruktur Das bwgrid High Performance Compute Cluster als flexible, verteilte Wissenschaftsinfrastruktur Marek Dynowski (Universität Freiburg) Michael Janczyk (Universität Freiburg) Janne Schulz (Universität Freiburg)

Mehr

<Insert Picture Here> RAC Architektur und Installation

<Insert Picture Here> RAC Architektur und Installation RAC Architektur und Installation Elmar Ströhmer Michael Künzner Oracle Server Technologies Competence Center Agenda Überblick und Architekturen von HA-Systemen Hardware Die Basis

Mehr

Erfahrungsbericht, Konsolidierung und Administration Real Application Cluster

Erfahrungsbericht, Konsolidierung und Administration Real Application Cluster Erfahrungsbericht, Konsolidierung und Administration Real Application Cluster Themen Über mich Projekt RAC bei Heine Probleme Resultate Fragen 2 Über mich virtual7 GmbH Jürgen Bouché Zeppelinstraße 2 76185

Mehr

Der kleine Fiber Guide

Der kleine Fiber Guide Der kleine Fiber Guide Kabel, Stecker, Optiken - eine Übersicht Matthias Cramer Copyright c 2015-2018 Matthias Cramer PUBLISHED BY FREESTONE SYSTEMS WWW.FREESTONE.NET Licensed under the Creative Commons

Mehr

Einführungs-Workshop Februar Übersicht

Einführungs-Workshop Februar Übersicht Einführungs-Workshop ebruar 2013 Übersicht rogramm 27.2.2013 Vormittag Workshop 9:00 Christian Iwainsky SC: Best ractise Tuning 9:30 Dr.-Ing. Dörte C. Sternell NB: ASTEST 10:00 Kurs I: Die ersten Schritte

Mehr

Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen

Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem hristian Terboven Rechen- und Kommunikationszentrum RWTH Aachen 1 Hochleistungsrechnen mit Windows enter omputing and ommunication

Mehr

Nutzung paralleler Prozesse bei der Umweltsimulation

Nutzung paralleler Prozesse bei der Umweltsimulation Nutzung paralleler Prozesse bei der Umweltsimulation RALF Wieland rwieland@zalf.de ZALF/LSA Nutzung paralleler Prozesse bei der Umweltsimulation p. 1 Warum parallele Prozesse? Die Steigerung der Taktfrequenz

Mehr

RAC mit Oracle 10g Standard Edition und ASM

RAC mit Oracle 10g Standard Edition und ASM RAC mit Oracle 10g Standard Edition und ASM DOAG Regional-Treffen Stuttgart 20. Januar 2005 Manfred Wisotzky und Sandro Crepaldi RAC mit Oracle 10g Standard Edition > Einleitung > Projekt Hardware > Betriebssysteme

Mehr

Deep Learning Appliance 4U Die Ready-to-Brain Komplett-Lösung

Deep Learning Appliance 4U Die Ready-to-Brain Komplett-Lösung www.cadnetwork.de/deeplearning Die Ready-to-Brain Komplett-Lösung DIE KOMPLETTLÖSUNG FÜR IHRE AI PROJEKTE Die ist unser 8-GPU Flaggschiff für AI Anwendungen. Sie liefert das Potential für anspruchsvollste

Mehr

Ruprecht-Karls-Universität Heidelberg

Ruprecht-Karls-Universität Heidelberg Ruprecht-Karls-Universität Heidelberg PS: Themen der technischen Informatik Sommersemester 2013 Referentin: Hanna Khoury Betreuer: Prof. Dr. Ulrich Brüning, Dr. Frank Lemke Datum: 10.06.2014 1) Einige

Mehr

3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN?

3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN? 3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN? Udo Schaefer Berlin, den 10. November 2011 DIE NETZE UND IHRE NUTZUNG Berechnungsgrundlage 800 Millionen Facebook Nutzer Transport

Mehr

Julian Kunkel. ZKI-Arbeitskreis Supercomputing

Julian Kunkel. ZKI-Arbeitskreis Supercomputing Julian Kunkel ZKI-Arbeitskreis Supercomputing Motivation Job-Statistiken Verfügbare Metriken Technische Umsetzung HPSS-Monitoring DKRZ, ZKI, 05.03.2010, Julian Kunkel 2 Transparenz! Unter minimalen Leistungseinbußen

Mehr

SPEICHER-NETZWERKBETRIEB

SPEICHER-NETZWERKBETRIEB SpeicherNETZWERKBETRIEB FIBRE CHANNEL Vom Rechenzentrum zu den Arbeitsgruppen und bis an die Unternehmensgrenzen liefert QLogic ein umfassendes Portfolio von Adaptern, Switches und Routern für iscsi- und

Mehr

Performance Engineering: Forschung und Dienstleistung für HPC-Kunden. Dirk Schmidl

Performance Engineering: Forschung und Dienstleistung für HPC-Kunden. Dirk Schmidl Performance Engineering: Forschung und Dienstleistung für HPC-Kunden Hardware Komplexität GPU KNL MPI L U S T R E SMP Claix NVMe HOME Storage OPA Die Komplexität moderner HPC Systeme erfordert Optimierung

Mehr

Schneller als Hadoop?

Schneller als Hadoop? Schneller als Hadoop? Einführung in Spark Cluster Computing 19.11.2013 Dirk Reinemann 1 Agenda 1. Einführung 2. Motivation 3. Infrastruktur 4. Performance 5. Ausblick 19.11.2013 Dirk Reinemann 2 EINFÜHRUNG

Mehr

ODA Erfahrungen und Neuigkeiten

ODA Erfahrungen und Neuigkeiten ODA Erfahrungen und Neuigkeiten Dierk Lenz 25. Oktober 2017 Köln Oracle Database Appliance (ODA) Mitglied der Familie der Oracle Engineered Systems, d.h.: Hardware und Software (Betriebssystem, Datenbank)

Mehr

Julian Kunkel. ZKI-Arbeitskreis Supercomputing

Julian Kunkel. ZKI-Arbeitskreis Supercomputing Julian Kunkel ZKI-Arbeitskreis Supercomputing Motivation Job-Statistiken Verfügbare Metriken Technische Umsetzung HPSS-Monitoring DKRZ, ZKI, 05.03.2010, Julian Kunkel 2 Transparenz! Unter minimalen Leistungseinbußen

Mehr

VON DER WOLKE IN DEN NEBEL

VON DER WOLKE IN DEN NEBEL VON DER WOLKE IN DEN NEBEL RZ INFRASTRUKTUREN FÜR "THE EDGE" Dr. Peter Koch VP Solutions - Integrated Rack Systems EMEA 23. März 2017 VERTIV PORTFOLIO Emerson Network Power ist jetzt 2 wozu? wie? weshalb?

Mehr

GPGPUs am Jülich Supercomputing Centre

GPGPUs am Jülich Supercomputing Centre GPGPUs am Jülich Supercomputing Centre 20. April 2012 Jochen Kreutz Jülich Supercomputing Centre (JSC) Teil des Forschungszentrums Jülich und des Institute for Advanced Simulation (IAS) betreibt Supercomputer

Mehr

Diskless Cluster und Lustre Erfahrungsbericht zum CHiC

Diskless Cluster und Lustre Erfahrungsbericht zum CHiC Diskless Cluster und Lustre Erfahrungsbericht zum CHiC, Torsten Hoefler, Torsten Mehlan und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität

Mehr

ProCurve Zubehör für Switches

ProCurve Zubehör für Switches ProCurve Zubehör für Switches 221 ProCurve Mini-GBICs und SFPs ProCurve Gigabit-SX-LC Mini-GBIC (J4858C) 1 LC 1000Base-SX-Port (IEEE 802.3z Typ 1000Base-SX) Maße (T x B x H): 5,69 x 1,37 x 1,23 cm Gewicht:

Mehr

PostgreSQL im Cluster. Hans-Jürgen Schönig Hans-Jürgen Schönig

PostgreSQL im Cluster. Hans-Jürgen Schönig  Hans-Jürgen Schönig PostgreSQL im Cluster Über uns PostgreSQL Dienstleistungen Cybertec bietet Ihnen... 24x7 Support für PostgreSQL PostgreSQL Consulting Performance Tuning PostgreSQL Training Cloud & Clustering PostgreSQL

Mehr

Manycores: Hardware und Low-Level Programmierung

Manycores: Hardware und Low-Level Programmierung Manycores: Hardware und Low-Level Programmierung Florian Sattler Universität Passau 18. Juni 2014 Übersicht Einführung Neue Architekturen Programmierung Supercomputing Fazit 2 / 29 Top 500 3 / 29 Motivation

Mehr

Infiniband Diagnose und Cluster HealthCheck Arbeitskreis Supercomputing Hamburg, 2010-03-05 Peter Niessen support@par-tec.com

Infiniband Diagnose und Cluster HealthCheck Arbeitskreis Supercomputing Hamburg, 2010-03-05 Peter Niessen support@par-tec.com ParTec Cluster Competence Center GmbH Infiniband Diagnose und Cluster HealthCheck Arbeitskreis Supercomputing Hamburg, 2010-03-05 Peter Niessen support@par-tec.com 1 JuRoPA JSC: Sun Blade SB6048 2208 Compute

Mehr

Der kleine Fiber Guide

Der kleine Fiber Guide Der kleine Fiber Guide Kabel, Stecker, Optiken - eine Übersicht Matthias Cramer Copyright c 2015-2018 Matthias Cramer PUBLISHED BY FREESTONE SYSTEMS WWW.FREESTONE.NET Licensed under the Creative Commons

Mehr

Beispielvortrag: HPCG auf Intel Haswell-EP

Beispielvortrag: HPCG auf Intel Haswell-EP Beispielvortrag: HPCG auf Intel Haswell-EP Johannes Hofmann 1 Seminarvortrag Architekturen von Multi- und Vielkern-Prozessoren Erlangen, 19.4.2016 1 Computer Architecture, University Erlangen-Nuremberg

Mehr

Verteilte Betriebssysteme

Verteilte Betriebssysteme Verteiltes System Eine Sammlung unabhängiger Rechner, die dem Benutzer den Eindruck vermitteln, es handle sich um ein einziges System. Verteiltes Betriebssystem Betriebssystem für verteilte Systeme Verwaltet

Mehr

P R Ä S E N T I E R T. LC Duplex, SFP spacing. MTP, mit Pins (male): MTP/m. MTP, ohne Pins (female): MTP/f. EDGE Module (Kassette), MTP/m auf LC Dup

P R Ä S E N T I E R T. LC Duplex, SFP spacing. MTP, mit Pins (male): MTP/m. MTP, ohne Pins (female): MTP/f. EDGE Module (Kassette), MTP/m auf LC Dup P R Ä S E N T I E R T Betrachtungsweisen für die 40G und 00G Migration in der Data Center Verkabelung Joergen Janson Data Center Marketing Spezialist Legende LC Duplex, SFP spacing MTP, mit Pins (male)

Mehr

Rechnernetze I. Rechnernetze I. 1 Einführung SS Universität Siegen Tel.: 0271/ , Büro: H-B 8404

Rechnernetze I. Rechnernetze I. 1 Einführung SS Universität Siegen Tel.: 0271/ , Büro: H-B 8404 Rechnernetze I SS 2012 Universität Siegen rolanda.dwismuellera@duni-siegena.de Tel.: 0271/740-4050, Büro: H-B 8404 Stand: 20. April 2012 Betriebssysteme / verteilte Systeme Rechnernetze I (1/12) i Rechnernetze

Mehr

automotive supplier (part II)

automotive supplier (part II) HPC @ automotive supplier (part II) AGENDA 01 Zwei in eins ein dual-cluster System 02 Das Herzstück der Storage 15.03.2017 2 FALSCH ZUGEORDNETE ZITATE DIE KÄNGURU CHRONIKEN VON MARC-UWE KLING Ehrlich währt

Mehr

XIV Storage reinvented

XIV Storage reinvented Manuel Schweiger Technical Sales Support Storage XIV Storage reinvented Architektur: Gestern, heute, morgen Zentraler Cache, CPU, Backplane Spezielles HW Design -> Hohe Kosten Manuelles Tuning notwendig

Mehr

transtec Entry Level HPC Cluster

transtec Entry Level HPC Cluster Entry Level HPC Cluster Komplettes HPC Clustersystem inklusive Installation und Lieferung Nicht genug Knoten? Fragen zu dem System? Kontaktieren Sie uns unter: 01/726 60 90 oder @.at Position 1: Rack 19"

Mehr

PVFS (Parallel Virtual File System)

PVFS (Parallel Virtual File System) Management grosser Datenmengen PVFS (Parallel Virtual File System) Thorsten Schütt thorsten.schuett@zib.de Management grosser Datenmengen p.1/?? Inhalt Einführung in verteilte Dateisysteme Architektur

Mehr

Management Cluster und MU-Redundanz

Management Cluster und MU-Redundanz Freigabeseminar FUJITSU Software BS2000 OSD/BC V11.0 und FUJITSU Server BS2000 SE Serie Management Cluster und MU-Redundanz Rainer Neuburger, BS2000 Qualitätssicherung München, 19. Oktober 2017 0 2017

Mehr

Datenbankspiegelung mit (Active) Data Guard. und Abgrenzung

Datenbankspiegelung mit (Active) Data Guard. und Abgrenzung Datenbankspiegelung mit (Active) Data Guard und Abgrenzung ORACLE Deutschland B.V. & Co. KG Stephan Haas Server Technology Competence Center Agenda Überblick Oracle DataGuard Oracle

Mehr

RDMA oder: Wie ich lernte, 100 Gb/s Netzwerke zu lieben

RDMA oder: Wie ich lernte, 100 Gb/s Netzwerke zu lieben RDMA oder: Wie ich lernte, 100 Gb/s Netzwerke zu lieben Jan Kappen Microsoft MVP Cloud and Datacenter Management IT Consultant bei Rachfahl IT-Solutions Trainer Buch Autor Blogger Blog: hyper-v-server.de

Mehr

OXO³ technische Aspekte der Oracle EMEA internen BI Implementierung

OXO³ technische Aspekte der Oracle EMEA internen BI Implementierung OXO³ technische Aspekte der Oracle EMEA internen BI Implementierung Bojan Milijaš (bojan.milijas@oracle.com) Senior Business Analyst (OCP) ORACLE Deutschland GmbH Kennen Sie das Sprichwort

Mehr

Hochleistungs-Disk-I/O

Hochleistungs-Disk-I/O Hochleistungs-Disk-I/O mit Lustre, dcache und AFS eine vergleichende Betrachtung Stephan Wiesand DESY DV 33. Treffen des ZKI AK Supercomputing Hamburg, 2010-03-04 Computing am DESY Standort Zeuthen Batch

Mehr