Kick-Off-Meeting PG Virtualized Supercomputer 17. Oktober 2008 Georg Birkenheuer, Prof. Dr.-Ing. André Brinkmann, Oliver Niehörster, Dr. Jens Simon
Agenda Vorstellung PC² Aufgabenstellung der PG Organisation der PG Seminar Ablauf Themen J. Simon 2
Agenda Vorstellung PC² Aufgabenstellung der PG Organisation der PG Seminar Ablauf Themen J. Simon 3
PC² - Paderborn Center for Parallel Computing Aufgaben: Landesweites Kompetenzzentrum für parallele und verteilte Datenverarbeitung Gegründet: April 1991 Zielsetzung: Effiziente Nutzung paralleler und verteilter Systeme Leistungsspektrum: Dienstleistung und Forschung im Bereich Parallelverarbeitung Nutzer: ~ 200 Anwender in 120 Projekten, ca. 40% extern PC² Services HPC systems HPC software packages User consulting Research HPC systems HPC applications Grid Computing HPC Visualization J. Simon 4
Paderborn Center for Parallel Computing (PC 2 ) PC² Innovationswerkstatt für Paralleles und Verteiltes Rechnen J. Simon 5
2007 2006 2005 2004 2002/ 2003 HPC-Systeme im PC² FSC/ICT BIS-Grid FSC Windows CCS FSC hpcline ARMINIUS FSC/ICT SFB- Opteron Hewlett Packard Pling- Cluster 8 Opteron, each 4 x DualCore 2.8 GHz, 64 GByte 6 Xeon/Opteron, each 2 x DualCore 3.0/2.0 GHz, 8 GByte 200 Xeon, each 2 x SingleCore 3.2 GHz, 4 GByte 2 Opteron, each 4 x SingleCore 2.2 GHz, 32 GByte 32 Itanium2, each 2 x SingleCore 1.3 GHz, 4 GByte 4 Dual Itanium2, each 2 x SingleCore 1 GHz, 12 GByte InfiniBand- Network 1.4 µs, 2150 MByte/s FC Storage InfiniBand- Network 13.5 µs, 450 MByte/s InfiniBand- Network 4.2 µs, 1700 MByte/s >80 GByte/s all2all BW InfiniBand- Network InfiniBand- Network 6.61 µs, 705 MByte/s 12 GByte/s all2all BW 358 GFLOPS 1300 SpecFp_rate 1200 SpecInt_rate 59 GFLOPS 420 SpecFp_rate 600 SpecInt_rate 2560 GFLOPS 4600 SpecFp_rate 5400 SpecInt_rate 38 GFLOPS 90 SpecFp_rate 100 SpecInt_rate 364 GFLOPS 1300 SpecFp_rate 930 SpecInt_rate J. Simon 6
Arminius: Rechen- und Visualisierungscluster 2.6 TFLOPS Rechenleistung (peak) 896 GByte Hauptspeicher (brutto) 200 Rechenknoten Dual INTEL Xeon 3.2 GHz 4 GByte Hauptspeicher 8 Visualisierungsknoten Dual AMD Opteron 2.4 GHz nvidia Quadro FX 4500 PCI-e 8 GByte Hauptspeicher Hochgeschwindigkeitsnetzwerk InfiniBand HCA PCI-e InfiniBand Switch 216 Ports Plattenspeicher 5 TByte FC-RAID 10 TByte paralleles File-System J. Simon 7
Arminius: Cluster Architecture InfiniBand fabric vis nodes compute nodes FC RAID Rear Projektion (stereoscopic) Tiled-Display (high resolution) Vis-Grid Infinity-Wall J. Simon 8
Stereoskopisches Projektionssystem Rückprojektion 1,80m x 2,40m Projektionsscheibe Zwei D-ILA Projektoren 1400x1050 Auflösung JVC DLA SX21 3D-Tracking Infrarot optisches Tracking Fly-Stick, Brillen-Marker Angesteuert durch zwei Visualisierungsknoten Segmentiertes Display 3x2 TFT 3840 x 2048 Pixel J. Simon 9
Arminius: Kühlung 2.6 TFLOPS Rechenleistung erfordert ca. 70 kw Stromaufnahme Rechnerraum bietet ca. 60 kw Kühlleistung über Luft Klimaschränke erfordern speziellen Kaltwassersatz ca. 10 Kühlwassertemperatur Prozessoren erzeugen > 60% der Abwärme Prozessoren direkt kühlen Kühltemperatur > 30 Klimaanlage des Gebäudes direkt nutzbar Temperaturen zwischen 24 und 30 J. Simon 10
Arminius: Kühlung Schrankrückseite J. Simon Wärmetauscher 11
Arminius: Gehäuse Zwei Rechenknoten pro Einschub (Twin-Gehäuse) 4 HE pro Einschub 18 Rechenknoten pro Rack Standardkabinett nutzbar Erweiterbarkeit 1 x PCI-e 3 x PCI-X z.b. FPGAs, GPUs, Cell-Prozessoren J. Simon 12
BisGrid Cluster Frontend 2 sockets dual-core Opteron (4 Cores, 2.8 GHz) 4 GByte main memory InfiniBand 4x DDR Fibre-Channel 8 Compute nodes, each 4 sockets dual-core Opteron (8 Cores, 2.8 GHz) 64 GByte main memory InfiniBand 4x DDR interface Dual port Fibre-Channel controller Storage Fibre-Channel Box with 16 x 750 GByte SATA disks J. Simon
Windows Compute Cluster Frontend system 6 compute nodes 2 x FSC V830, each with 2 sockets Dual-Core AMD Opteron 270, 2.0GHz 8 GByte main memory Mellanox MT23108 IB 4x SDR 4 FSC TX300-S3, each with 2 sockets Dual-Core INTEL Xeon 5160, 3.0GHz 8 GByte main memory QLogic HCA 9000 IB 4x DDR Windows Server 2008 J. Simon 14
Agenda Vorstellung PC² Aufgabenstellung der PG Organisation der PG Seminar Ablauf Themen J. Simon 15
Warum Supercomputing? Dijkstra A quantitative change is also a qualitative difference, if the quantity has changed by an order of magnitude. A quantitative example: A baby crawls at 1 mph A marathoner runs at 10 mph A fast car can drive at 100 mph A fast jet can fly at 1,000 mph Some qualitative changes Driving allows one to go to places, you can t get to on foot Flying allows one to go to places in time that driving would not allow Dr. Mark K. Seager: Petascale Platforms: Expect the Unexpected, IEEE Cluster 2007
Scale-out Problemstellungen Demonstrate ability to model nucleation and growth independent of finite size effects ddcmd code developed on BlueGene/L wins 2005 Gordon Bell Prize: First science application to break the 100 TFlop /s barrier Dr. Mark K. Seager: Petascale Platforms: Expect the Unexpected, IEEE Cluster 2007
GRID-Computing: Wie nutze ich einen Supercomputer? Middleware Unicore Globus LCG / glite Interface Middleware RMS Lokales RMS RMS A RMS B RMS C RMS D Ressource Windows RedHat Suse Linux Solaris
Virtuelle Server Standard in modernen Rechenzentren Viele BS können gekapselt und unabhängig auf wenig Hardware ausgeführt werden Kostenoptimal Virtualisierung für High Performance Computing (HPC) Virtualisierung heute ohne großen Performanceverlust auf einem Rechner Nicht alle HPC-Applikationen sind Number crunching App. A App. A App. C App. B App. A
Virtualisierte Grid-Infrastruktur Middleware Unicore Globus LCG / glite Repository Interface Middleware RMS Lokales RMS RMS A RMS B RMS C RMS D Service Manager VirtualizaAon AbstracAon Layer Ressource XEN VMWare KVN Microsoft
Ablauf B braucht mehr Ressourcen: A & C verkleinern Migration von B Service Manager RMS Agent Agent Agent Agent A A A B B B B B C C A A D Xen Agent Xen Agent Xen Agent B Knoten 1 Knoten 2 Knoten 3
#Knoten Knoten-Anforderung der neuen Anwendung zu hoch bei aktueller Belegung! Zeit
Agenda Vorstellung PC² Aufgabenstellung der PG Organisation der PG Seminar Ablauf Themen J. Simon 23
Teilnehmer Betreuer J. Simon Georg Birkenheuer [birke@uni-paderborn.de] André Brinkmann [brinkman@uni-paderborn.de] Oliver Niehörster [nieh@uni-paderborn.de] Jens Simon [simon@uni-paderborn.de] Studierende Matthias Bolte [photon@mail.uni-paderborn.de] Holger Bürger [buerger@uni-paderborn.de] Hubert Dörmer [homerj@uni-paderborn.de] Martin Hett [martinhe@mail.uni-paderborn.de] Jürgen Kaiser [jkaiser@mail.uni-paderborn.de] Thorsten Schäfer [Uni@ThorstenSchaefer.name] Michael Sievers [michael_sievers@web.de] Andreas Weizel [weizel.andreas@freenet.de] Maximilian Wilhelm [mwilhelm@math.uni-paderborn.de] Seminar Bodo Runde [bodo.runde@googlemail.com]
Grober Ablauf Seminarphase [bis Ende Nov.] Einarbeitung ins Thema, papers lesen, zusammenfassen Seminarbericht erstellen Präsentation des Themas Einarbeitung in Methoden und Werkzeuge Präsentation nach außen (web page,...) Spezifikationsphase [Ende Nov. Bis Ende Feb.] Arbeiten in den Teilbereichen spezifizieren, Varianten, Risikoplan Interfaces zwischen den Teilbereichen definieren Zeitplan bestimmen Beschaffung notwendiger HW/SW Abgabe des Pflichtenhefts Implementierungsphase [Ende Feb. bis Ende SomSem] Dokumentation {{Implementierung, Test}*, {Systemintegration, Test}*}* Abgabe Zwischenbericht und Zwischenpräsentation Abschlussbericht, Abschluss-Präsentation J. Simon 25
Generelle Aufgaben Regelmäßige Treffen der PG In der Regel wöchentlich Treffen aller studentischen Teilnehmer In der Regel ist ein Betreuer anwesend Anfertigung eines Protokolls Verteilung von Aufgaben PG-Sprecher, Protokollführer, PG-Internetseiten, usw. Rollen können/sollen auch wechseln Teilnahme an einer Vorlesung Architektur paralleler Rechnersysteme www.uni-paderborn.de/pc2/people/jens-simon/courses/aprws08/ Operating Systems J. Simon 26
Bewertung Spielregel sind: Controlling Achten auf Einhalten des Zeitplans (Risikoplan) Gegenseitiges Festsetzen und Beachten von Deadlines Bei nicht Leistungserbringung eines Teilnehmers: 0.) in der Gruppe besprechen 1.) Gespräch mit Betreuer 2.) Trennung von dem Teilnehmer (Note 5) Bewertung Resultate der PG Individuelle Leistung Seminar (Vortrag und Ausarbeitung) Abschlusspräsentation und Abschlussbericht J. Simon 27
Hilfsmittel Email-Verteiler pg-vsc@lists.uni-paderborn.de Dokumenten Austausch/Archivierung Z.B. SVN im PC² Web-Seite der Betreuer organisatorische Informationen http://www.uni-paderborn.de/pc2/teaching/lectures/pg-vsc/ Web-Seiten der Studierenden öffentliche Präsentation der PG Z.B. Typo3 Seiten im PC² J. Simon
Termine Deadline Seminarbericht (ca. 12 Seiten) 26.11.08 Seminarpräsentationen (2 halbe Tage? Wo?) 48 KW Wöchentliche Projektgruppentreffen z.b. Fr. 15:00Uhr Präsentation der angestrebten Architektur 3 KW Deadline Spezifikation 27.02.09 Präsentation der Spezifikation 10 KW Zwischenpräsentation Abschlusspräsentation Abschlussbericht J. Simon 29
Agenda Vorstellung PC² Aufgabenstellung der PG Organisation der PG Seminar Ablauf Themen J. Simon 30
Ablauf des Seminars Verteilen von Seminarthemen (gleich) Einarbeitung in das Thema Anfertigung einer schriftlichen Ausarbeitung Abgabe der schriftlichen Ausarbeitung Anfertigung eines Folienvortrags Abgabe/Besprechung der Folien Präsentation des Vortrags J. Simon 31
Seminarthemen *aus Virtual Machines von Smith und Nair J. Simon 32