Das HLRN-System. Peter Endebrock, RRZN Hannover

Ähnliche Dokumente
Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS 2012/13

Virtueller Supercomputer Berlin - Hannover Mit Jumbo-Frames über die DFN-Verbindung. Hubert Busch, Zuse-Institut Berlin (ZIB)

Enterprise Computing

Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland

Enterprise Computing

HLRN III - HPC Ressource für Norddeutschland

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn

Agenda. HPC-Benutzerkolloquium. EM64T-Clustererweiterung. EM64T-Clustererweiterung am RRZE

Leistungsanalyse von Rechnersystemen

Die Architektur des Sun UltraSPARC T2 Prozessors, Anwendungsszenarien

Markus Feichtinger. Power Systems. Der Weg zu POWER! 2009 IBM Corporation

Vorkurs Informatik 2003 Rechnerstrukturen

Die deutsche Windows HPC Benutzergruppe

Globales GPFS. ZKI-Arbeitskreises Sys Bommerholz 21. März Lothar Wollschläger

XEN Performance. Projektpraktikum Informatik. Arne Klein Arne Klein () XEN Performance / 25

Formulieren von Leistungsverzeichnissen

Vektorrechnersystem NEC SX-9

Virtualisierung am Beispiel des LRZ Stefan Berner

Betriebssysteme Studiengang Informatik

Seminar Großrechneraspekte (Mainframe): Von Betriebssystemen bis zur Datenbank und darüber hinaus. E/A Architektur

Servervirtualisierung bei der GWDG GWDG IK,

Summary of Previous Lecture

Patagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre

Infrastrukturanalyse Ihr Weg aus dem Datenstau

High Performance Computing

Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation

Fragen zur GridVis MSSQL-Server

Hardware-Architekturen

Architektur paralleler Plattformen

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13

Next generation of Power

moderne Prozessoren Jan Krüger

C C. Hochleistungsrechnen (HPC) auf dem Windows Compute Cluster des RZ der RWTH Aachen. 1 WinHPC Einführung Center. 31.

RZ.RWTH-AACHEN.DE

Paralleles Rechnen in der Physik

Einführung in z/os Prof. Dr.- Martin Bogdan Dr. rer. nat. Paul Herrmannn Prof. Dr.-Ing. Wilhelm G. Spruth WS 2008/2009 Teil 5 Parallelrechner, I/O

High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO

SPARC LDom Performance optimieren

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien

Inhalt. Prozessoren. Curriculum Manfred Wilfling. 28. November HTBLA Kaindorf. M. Wilfling (HTBLA Kaindorf) CPUs 28. November / 9

IO Performance - Planung Messung, Optimierung. Ulrich Gräf Principal Sales Consultant Oracle Deutschland B.V. und Co. KG

The world we live in and Supercomputing in general

Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund

Datenbank als RAC oder in einer virtualisierten Umgebung?

Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen

MSSQL Server Fragen GridVis

Inhaltsverzeichnis. BüroWARE Systemanforderungen ab Version Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2

Linux auf System z. z/os Guide Lahnstein Seite 1

1 3

High Performance Computing

Proseminar Rechnerarchitekturen. Parallelcomputer: Multiprozessorsysteme

Wissenschaftliches Hochleistungsrechnen am IGG/Universität Bonn

HPC an der Uni Mainz

<Insert Picture Here> RAC Architektur und Installation

Internet Anwendungen unter OS/390

Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA)

Wie profitiert SAP MaxDB von SSD Technologie?

HYPER - THREADING HYPER-THREADING TECHNOLOGY SERGE FOPOUSSI. Serge Fopoussi UNIVERSITÄT BREMEN SEMINAR RECHNERARCHITEKTUR. Prof. Dr.

Computer-Generationen

On- Demand Datacenter

Technische Voraussetzungen und Kompatibilitätsliste GemDat/Rubin

The Unbreakable Database System

Intel 80x86 symmetrische Multiprozessorsysteme. Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte

CPU-Update. Wie Äpfel zu Melonen werden. best OpenSystems Day April Unterföhring

Betrieb eines heterogenen Clusters

Praktische Erfahrungen mit Hochgeschwindigkeitsfirewalls. 54. DFN-Betriebstagung

CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm

Angebot. Haben Sie Fragen? Zögern Sie nicht mich anzurufen!

Hardware für das Internet. Lorenz Wallner

Logischer Aufbau von Storagesystemen. Ernst Fankhauser

Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen

Emulation und Rapid Prototyping. Hw-Sw-Co-Design

Emulation und Rapid Prototyping

Video Line Array Highest Resolution CCTV

MULTICORE- UND GPGPU- ARCHITEKTUREN

Betriebssysteme für Medieninformatiker Wirtschaftsinformatiker

UBELIX University of Bern Linux Cluster

Der neue Hochleistungsrechner der RWTH Aachen

ZKI AK Supercomputing Herbsttagung Scientific Computing in Düsseldorf

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz

Symmetrischer Multiprozessor (SMP)

Hochleistungsrechnen und Grid-Computing am ZIH

Neues in Hyper-V Version 2

XSC. Reimar Bauer, Rebecca Breu. Dezember Forschungszentrum Jülich. Weihnachtsfeier, 10. Dezember

Leibniz-Rechenzentrum

Grid Computing in. komplexen Systemen. mit Blick auf RFID. Günther Stürner Vice President Business Unit Database & STCCs ORACLE Deutschland GmbH

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/2013. Input/Output Teil 4

FlexiScale - Web Hosting mit Cloud-Computing Hochschule Mannheim

Virtualisierung Phase II: Die Verschmelzung von Server & Netzwerk

IT-Infrastruktur, WS 2014/15, Hans-Georg Eßer

Ist die Standard Edition noch einsetzbar? Dierk Lenz DOAG 2015 Konferenz

Aufbau von modernen Computersystemen

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS 2012/13

MDM best practices in einer komplexen (MPLS) Umgebung am Beispiel der Landeshauptstadt Stuttgart

GinLink Interface 1GHz RISC CPU M-RAM High-Speed Feldbus Controller RISC-CPU, 800MHz... 1GHz Bis zu 256 MByte SDRAM

Praktikum 1: Parallel Computing Hardware

Enterprise Computing Einführung in das Betriebssystem z/os

3ware Controller

Systemvoraussetzungen MEV Mietwagensystem

Enterprise Computing

Transkript:

Das HLRN-System Peter Endebrock, RRZN Hannover

vorweg (1) Heute Vorträge im Dreierpack: Peter Endebrock: Das HLRN-System Gerd Brand: MPI Simone Knief: OpenMP Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 2

vorweg (2) Hamming 1962 The Purpose of Computing is Insight, not Numbers Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 3

vorweg (2) Hamming 1962 The Purpose of Computing is Insight, not Numbers Hamming 1972 The Purpose of Computing is not yet in Sight Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 4

Themen Rechnersysteme am RRZN Übersicht über das HLRN-Konzept Das HLRN-Gesamtsystem Das IBM pseries 690 System Einige Erfahrungen Weitere Planungen Zusammenfassung Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 5

Rechnersysteme am RRZN Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 6

Die anderen Hochleistungsrechner SGI Onyx 3800 Hochleistungs-Graphikrechner 18 CPUs, 4 Graphikpipes eingebunden in das HLRN-Konzept Sun Enterprise 10.000 SMP-Hochleistungsrechner 56 CPUs in vier Partitionen für kleinere Anwendungen Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 7

Themen Rechnersysteme am RRZN Übersicht über das HLRN-Konzept Das HLRN-Gesamtsystem Das IBM pseries 690 System Einige Erfahrungen Weitere Planungen Zusammenfassung Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 8

Übersicht über das HLRN-Konzept Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 9

HLRN-Geschichte (1) Erste Planungen ab 1995/96 Erster Antrag 1998 Ausschreibung in 2000/2001 Okt. 2001: Entscheidung für IBM-Angebot Nachprüfungsantrag bei Vergabekammern Jan. 2002: Entscheidung zugunsten HLRN März 2002: Vertragsunterzeichnung Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 10

Vertragsunterzeichnung Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 11

Aufbau in Hannover Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 12

HLRN-Geschichte (2) Apr. 2002: Lieferung und Aufbau Mai 2002: Systeminstallation Juni 2002: Erste Benutzertests Juli 2002: Aufnahme des (Probe-)Betriebs 01.04.2003: Produktionsbetrieb Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 13

HLRN-Organisation Verwaltungsrat Technische Kommission Wissenschaftlicher Ausschuss Zwei Betreiberzentren: RRZN Kompetenznetzwerk der Fachberater Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 14

Nutzungsberechtigte Primär Einrichtungen der Hochschulen der beteiligten Bundesländer Schnupper-User zur Vorbereitung Großprojekte nach Genehmigung durch den Wissenschaftlichen Ausschuss Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 15

Themen Rechnersysteme am RRZN Übersicht über das HLRN-Konzept Das HLRN-Gesamtsystem Das IBM pseries 690 System Einige Erfahrungen Weitere Planungen Zusammenfassung Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 16

HLRN-Gesamtsystem Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 17

HLRN-Komplex Hannover Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 18

Das Massenspeichersystem Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 19

Einige Daten 24 Rechner IBM pseries 690, je 32 Prozessoren davon -2 Rechner mit 256 GByte Hauptspeicher -2 Rechner mit 128 GByte Hauptspeicher - 20 Rechner mit 64 GByte Hauptspeicher insgesamt 768 Prozessoren, 2 TByte Hauptspeicher Plattenkapazität ca. 52 TeraByte (Nutzkapazität) Rechenleistung (peak): ca. 4 Teraflops Gigabit-Link zwischen den Komplexen Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 20

Themen Rechnersysteme am RRZN Übersicht über das HLRN-Konzept Das HLRN-Gesamtsystem Das IBM pseries 690 System Einige Erfahrungen Weitere Planungen Zusammenfassung Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 21

Der MCM Multi Chip Module Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 22

Der MCM schematisch Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 23

und ein Power4-Chip Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 24

und noch einmal der Chip Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 25

und dazu einige Daten 2 CPUs pro Power4-Chip, 1,3 GHz Taktrate, entspricht 5,2 Gflops (peak) pro CPU L1 Daten-Cache 32 KByte pro CPU L1 Instruktions-Cache 64 KByte pro CPU L2 Cache 3 x 512 KByte gemeinsam für 2 CPUs, mit 3 Controllern, achtfach assoziativ Bandbreite L2-L1 über 100 GByte/s Integrierter Controller für L3 Cache (dieser außerhalb des Chips, 32 MByte) Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 26

und noch einige Daten 0,18 µm Kupfer- und SOI-Technologie Größe 13 x 13 x 0,6 cm 3 35 Teil-Chips mit 2,5 Milliarden Transistoren Verbunden mit 4226 I/O-Pins, 1 km Draht 101 Glaskeramikschichten IBM-Ziele für den Power4-Prozessor: -hohe Instruktionen/Zyklus-Rate -hohe Taktrate Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 27

zum logischen Konzept Parallelrechner als Cluster von SMP-Knoten Ziel: single system image für den Benutzer Zur Zeit Aufteilung der Frames in LPARs (4 Knoten pro Frame), also pro Komplex 48 Knoten mit je 8 Prozessoren Innerhalb des Knotens OpenMP oder MPI, zwischen den Knoten MPI Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 28

Themen Rechnersysteme am RRZN Übersicht über das HLRN-Konzept Das HLRN-Gesamtsystem Das IBM pseries 690 System Einige Erfahrungen Weitere Planungen Zusammenfassung Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 29

zur Leistung: TOP500 (Nov. 2002) Rank 44 IBM pseries 690 Turbo 1.3GHz/ 384 1038.00 1996.00 HLRN at Universitaet Hannover / RRZN Germany/2002 Rank 45 IBM pseries 690 Turbo 1.3GHz/ 384 1038.00 1996.00 HLRN at ZIB/Konrad Zuse-Zentrum fuer Informationstechnik Germany/2002 Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 30

zur Leistung: beide Komplexe (1) Messungen mit LINPACK (Stefan Andersson, IBM) Matrixgröße n=28000 (ca. 6 GByte) 8 Tasks pro Knoten Messungen in einem Komplex und auf beiden Komplexen Eine Messung mit n=110000 Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 31

zur Leistung: beide Komplexe (2) 300 Gflops 250 200 1 Komplex (US) 1 Komplex (IP) 2 Komplexe (IP) 150 100 50 0 2 4 8 16 16 (gross) Knoten Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 32

single system image Single system (aktueller Stand): -singleusername auf dem HLRN-System -single/home auf dem HLRN-System -i. w. gleiche Umgebung auf beiden Seiten - gemeinsames LoadLeveller Scheduling Zwillingssystem: -keine einzelnen Jobs auf beiden Seiten (aber schon Tests) Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 33

aus Zwei mach Eins! Gemeinsam sind wir stark : jeder Standort einzeln hätte wahrscheinlich Personalprobleme gehabt Regelmäßige Video-Konferenzen unterstützen Informationsaustausch und Entscheidungen Konsolidierungsphase zur Zusammenführung der unterschiedlichen Kulturen war nötig Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 34

Themen Rechnersysteme am RRZN Übersicht über das HLRN-Konzept Das HLRN-Gesamtsystem Das IBM pseries 690 System Einige Erfahrungen Weitere Planungen Zusammenfassung Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 35

Die ursprüngliche Zielkonfiguration Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 36

Probleme GPFS over SAN direkte Anbindung der Rechner an die Platten vermutlich nicht realisierbar GPFS-I/O über alle Knoten -starke Schwankungen bei wall clock time - Leistungsminderung für Rechnungen -Fehleranfälligkeit aber dafür hohe Übertragungsraten Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 37

Das Massenspeichersystem Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 38

Konsequenzen Stärkere Trennung von Dateisystemen (ist schon erfolgt) Installation dedizierter I/O-Knoten Sonstige Planungen Installation des neuen Switch ( Federation ) Vervollständigung der Ein-System-Eigenschaft Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 39

Themen Rechnersysteme am RRZN Übersicht über das HLRN-Konzept Das HLRN-Gesamtsystem Das IBM pseries 690 System Einige Erfahrungen Weitere Planungen Zusammenfassung Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 40

Zusammenfassung Extreme Anforderungen (1. Beantragung): Anträge für 300 % der verfügbaren CPU-Zeit Einzelne Anträge mit Anforderungen, die (auch) an keinem anderen SC-Center in Deutschland befriedigt werden können HLRN war für Norddeutschland dringend nötig Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 41

Links http://www.hlrn.de/ http://www.rrzn.uni-hannover.de/software/hpc/ http://www.research.ibm.com/journal/rd/461/tendler.html Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 42

Danke für Ihre Aufmerksamkeit! Peter Endebrock, RRZN Hannover, Kolloquium, 15.05.2003 43