Kick-Off-Meeting PG Virtualized Supercomputer 17. Oktober 2008

Ähnliche Dokumente
Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. Dipl.-Inform. Joachim Jäckel

Fluent auf Windows HPC Server ict ag - Mit uns können Sie rechnen

Praktikum BKSPP: Organisatorisches

Theoretische Analyse der Lactid- Polymerisation in einer virtualisierten Grid-Umgebung. André Brinkmann, Sonja Herres-Pawlis 05.

Well-Balanced. Performance Tuning

Projekt im Sommersemester Complex and Distributed IT-Systems TU Berlin

Titelmasterformat durch Klicken bearbeiten

Projektgruppe Algorithmen für die Cloud-unterstützte 3-D-Darstellung auf mobilen Endgeräten

Private Cloud mit Eucalyptus am SCC

Excel beschleunigen mit dem mit Windows HPC Server 2008 R2

Erhöhung der Serverauslastung IBM Corporation

CHARON-AXP Alpha Hardwarevirtualisierung

Unterbrechungsfreie Relokalisierung von virtuellen Maschinen in einer Data- Center-Cloud (DCCloud)

WIE ERHÖHT MAN DIE EFFIZIENZ DES BESTEHENDEN RECHENZENTRUMS UM 75% AK Data Center - eco e.v. 1. Dezember 2009

Hochleistungsrechnen für Wissenschaft und Wirtschaft im internationalen Verbund

Versuch 3: Routing und Firewall

Simplify Business continuity & DR

PC Virtualisierung für Privatanwender

PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD

Dienstleistungen Abteilung Systemdienste

Seamless Model-based Engineering of a Reactive System

Super rechnen ohne Superrechner Oder: Was hat das Grid mit Monte Carlo zu tun?

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz

Virtual System Cluster: Freie Wahl mit Open Source

Linux in allen Lebenslagen. Diskless Cluster und Lustre Erfahrungsbericht zum CHiC. Frank Mietke. Chemnitzer Linux-Tage 2007

Techniken und Werkzeuge für die IT-Sicherheit im Cloud-Computing und in verteilten Systemen

Mindestanforderungen an Systemumgebung Für die Nutzung von excellenttango

IT-Sachverständigen-Gemeinschaft. Virtualisierungstechnologien aus forensischer Sicht in Kempten,

Digitale Langzeitarchiverung

Virtualisierung: Neues aus 2010 und Trends 2011

IT-Effizienzworkshop bei New Vision GmbH Entry und Midrange Disksysteme

Ralf Simon, DV-Orga - Kreisverwaltung Birkenfeld

Arbeitsplatzset 1 bestehend aus PC + TFT

SCSI. Programmfiles, Datenfiles und Transaktionsprotokolle je auf separate Diskarrays.

Vorbereitungsseminar. Hochschule Darmstadt Fachbereich Informatik. Wintersemester 2011/2012 Prof. Dr. B. Kreling, Prof. Dr. J.

Systemanforderungen Verlage & Akzidenzdruck

CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm

Institut für Informatik

Systemvoraussetzungen für Autodesk Revit Produkte (gemäß Angaben von Autodesk)

HyperV und vnext - ein aktueller Blick auf den Stand der Technologie. Dipl.-Inf. Frank Friebe

Systemvoraussetzungen myfactory

Fragen zur GridVis MSSQL-Server

Lizenzierung von Windows Server 2012

WINDOWS 8 WINDOWS SERVER 2012

Windows Server 2008 Virtualisierung. Referent: Marc Grote

Cloud Computing. Betriebssicherheit von Cloud Umgebungen C O N N E C T I N G B U S I N E S S & T E C H N O L O G Y

Systeme 1. Kapitel 10. Virtualisierung

Systemvoraussetzungen winvs office winvs advisor

Software Projekt 2 / Gruppe Knauth Lernziele:

» Hyper-V Best Practice Microsofts Virtualisierung professionell einsetzen

Systemvoraussetzungen

AMD : Ein Preis, beliebig viele virtuelle Server?

Migration, Beschäftigtenportal und Ausblick: Wie geht es nach dem 18. November weiter?

ISCSI im Netzwerk und im Internet. Markus Sellner

Praktikum Einführung

OSL Simple RSIO. I/O Aufgabenstellungen einfach lösen

Der Nutzen und die Entscheidung für die private Cloud. Martin Constam Rechenpower in der Private Cloud 12. Mai 2014

Brownbag Session Grundlagen Virtualisierung Von VM s und Containern

C C. Hochleistungsrechnen (HPC) auf dem Windows Compute Cluster des RZ der RWTH Aachen. 1 WinHPC Einführung Center. 31.

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim

Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung

Oracle VM Support und Lizensierung. best Open Systems Day April Unterföhring. Marco Kühn best Systeme GmbH

Übung: Verwendung von Java-Threads

Nico Orschel AIT GmbH & Co KG Marc Müller 4tecture GmbH. 95 Prozent brauchen es, 5 Prozent machen es: Load Testing mit VS leicht gemacht

LOAD TESTING 95% BRAUCHEN ES, 5 % MACHEN ES: LOAD TESTING MIT VS LEICHTGEMACHT NICO ORSCHEL MVP VS ALM, CONSULTANT

Systemvoraussetzungen

Lizenzierung von System Center 2012

Systemaspekte Verteilter Systeme Wintersemester 2004/05

Mit Clustertechnik zu mehr Verfügbarkeit:

Calogero Fontana Fachseminar WS09/10. Virtualisierung

Industrie-PCs Full-Size - PICMG - ATX - Rack/Wall-Mount - Kundenspezifisch

Virtuelle Maschinen. Serbest Hammade / Resh. Do, 13. Dezember 2012

Systemvoraussetzungen

mehr als 25 Jahre PC-, Notebook- und Serverproduktion Servicecenter am Produktionsstandort hunderte Arbeitsplätze und 20% Ausbildungsquote KW 14/15

OS-Virtualisierung mit Solaris Zonen in der Praxis

Virtual Desktop Infrasstructure - VDI

best Systeme GmbH Michael Beeck Geschäftsführer, CTO best Systeme GmbH

Gliederung. Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik

Unternehmen-IT sicher in der Public Cloud

Virtualisierung in der Automatisierungstechnik

CFD in KMU Swiss VPE Symposium 2012

Aktion solange Vorrat!

Tips, Tricks und HOWTOs Virtualisierung für Profis und Einsteiger Serverkonsolidierung, Testumgebung, mobile Demo

Betriebssystem-basierte Virtualisierung

JEAF Cloud Plattform Der Workspace aus der Cloud

Virtualisierung am Beispiel des LRZ Stefan Berner

MSSQL Server Fragen GridVis

Applikationsvirtualisierung in der Praxis. Vortrag an der IHK Südlicher Oberrhein, Freiburg Thomas Stöcklin / 2007 thomas.stoecklin@gmx.

Organisatorisches. Proseminar Technische Informatik Oktober 2013

Copyright 2015 Kutzschbach Electronic GmbH & Co. KG Alle Rechte vorbehalten. ManagedBackup

Lizenzierung von Windows Server 2012 R2. Lizenzierung von Windows Server 2012 R2

Systemanforderungen (Mai 2014)

DIE SCHRITTE ZUR KORREKTEN LIZENZIERUNG

Schritt-Schritt-Anleitung zum mobilen PC mit Paragon Drive Copy 10 und VMware Player

Scheduling Mechanisms for the Grid

Von heiter bis wolkig Hosting am RRZE Physikalisch Virtuell in der Cloud Daniel Götz

Case Studies. Einsparpotenziale durch Konsolidierung und Virtualisierung. Jan Philipp Rusch New Vision GmbH

Informationsblatt zu den Seminaren am Lehrstuhl. für Transportsysteme und -logistik

Systemvoraussetzungen

Projektpräsentation der Betrieblichen Projektarbeit

Transkript:

Kick-Off-Meeting PG Virtualized Supercomputer 17. Oktober 2008 Georg Birkenheuer, Prof. Dr.-Ing. André Brinkmann, Oliver Niehörster, Dr. Jens Simon

Agenda Vorstellung PC² Aufgabenstellung der PG Organisation der PG Seminar Ablauf Themen J. Simon 2

Agenda Vorstellung PC² Aufgabenstellung der PG Organisation der PG Seminar Ablauf Themen J. Simon 3

PC² - Paderborn Center for Parallel Computing Aufgaben: Landesweites Kompetenzzentrum für parallele und verteilte Datenverarbeitung Gegründet: April 1991 Zielsetzung: Effiziente Nutzung paralleler und verteilter Systeme Leistungsspektrum: Dienstleistung und Forschung im Bereich Parallelverarbeitung Nutzer: ~ 200 Anwender in 120 Projekten, ca. 40% extern PC² Services HPC systems HPC software packages User consulting Research HPC systems HPC applications Grid Computing HPC Visualization J. Simon 4

Paderborn Center for Parallel Computing (PC 2 ) PC² Innovationswerkstatt für Paralleles und Verteiltes Rechnen J. Simon 5

2007 2006 2005 2004 2002/ 2003 HPC-Systeme im PC² FSC/ICT BIS-Grid FSC Windows CCS FSC hpcline ARMINIUS FSC/ICT SFB- Opteron Hewlett Packard Pling- Cluster 8 Opteron, each 4 x DualCore 2.8 GHz, 64 GByte 6 Xeon/Opteron, each 2 x DualCore 3.0/2.0 GHz, 8 GByte 200 Xeon, each 2 x SingleCore 3.2 GHz, 4 GByte 2 Opteron, each 4 x SingleCore 2.2 GHz, 32 GByte 32 Itanium2, each 2 x SingleCore 1.3 GHz, 4 GByte 4 Dual Itanium2, each 2 x SingleCore 1 GHz, 12 GByte InfiniBand- Network 1.4 µs, 2150 MByte/s FC Storage InfiniBand- Network 13.5 µs, 450 MByte/s InfiniBand- Network 4.2 µs, 1700 MByte/s >80 GByte/s all2all BW InfiniBand- Network InfiniBand- Network 6.61 µs, 705 MByte/s 12 GByte/s all2all BW 358 GFLOPS 1300 SpecFp_rate 1200 SpecInt_rate 59 GFLOPS 420 SpecFp_rate 600 SpecInt_rate 2560 GFLOPS 4600 SpecFp_rate 5400 SpecInt_rate 38 GFLOPS 90 SpecFp_rate 100 SpecInt_rate 364 GFLOPS 1300 SpecFp_rate 930 SpecInt_rate J. Simon 6

Arminius: Rechen- und Visualisierungscluster 2.6 TFLOPS Rechenleistung (peak) 896 GByte Hauptspeicher (brutto) 200 Rechenknoten Dual INTEL Xeon 3.2 GHz 4 GByte Hauptspeicher 8 Visualisierungsknoten Dual AMD Opteron 2.4 GHz nvidia Quadro FX 4500 PCI-e 8 GByte Hauptspeicher Hochgeschwindigkeitsnetzwerk InfiniBand HCA PCI-e InfiniBand Switch 216 Ports Plattenspeicher 5 TByte FC-RAID 10 TByte paralleles File-System J. Simon 7

Arminius: Cluster Architecture InfiniBand fabric vis nodes compute nodes FC RAID Rear Projektion (stereoscopic) Tiled-Display (high resolution) Vis-Grid Infinity-Wall J. Simon 8

Stereoskopisches Projektionssystem Rückprojektion 1,80m x 2,40m Projektionsscheibe Zwei D-ILA Projektoren 1400x1050 Auflösung JVC DLA SX21 3D-Tracking Infrarot optisches Tracking Fly-Stick, Brillen-Marker Angesteuert durch zwei Visualisierungsknoten Segmentiertes Display 3x2 TFT 3840 x 2048 Pixel J. Simon 9

Arminius: Kühlung 2.6 TFLOPS Rechenleistung erfordert ca. 70 kw Stromaufnahme Rechnerraum bietet ca. 60 kw Kühlleistung über Luft Klimaschränke erfordern speziellen Kaltwassersatz ca. 10 Kühlwassertemperatur Prozessoren erzeugen > 60% der Abwärme Prozessoren direkt kühlen Kühltemperatur > 30 Klimaanlage des Gebäudes direkt nutzbar Temperaturen zwischen 24 und 30 J. Simon 10

Arminius: Kühlung Schrankrückseite J. Simon Wärmetauscher 11

Arminius: Gehäuse Zwei Rechenknoten pro Einschub (Twin-Gehäuse) 4 HE pro Einschub 18 Rechenknoten pro Rack Standardkabinett nutzbar Erweiterbarkeit 1 x PCI-e 3 x PCI-X z.b. FPGAs, GPUs, Cell-Prozessoren J. Simon 12

BisGrid Cluster Frontend 2 sockets dual-core Opteron (4 Cores, 2.8 GHz) 4 GByte main memory InfiniBand 4x DDR Fibre-Channel 8 Compute nodes, each 4 sockets dual-core Opteron (8 Cores, 2.8 GHz) 64 GByte main memory InfiniBand 4x DDR interface Dual port Fibre-Channel controller Storage Fibre-Channel Box with 16 x 750 GByte SATA disks J. Simon

Windows Compute Cluster Frontend system 6 compute nodes 2 x FSC V830, each with 2 sockets Dual-Core AMD Opteron 270, 2.0GHz 8 GByte main memory Mellanox MT23108 IB 4x SDR 4 FSC TX300-S3, each with 2 sockets Dual-Core INTEL Xeon 5160, 3.0GHz 8 GByte main memory QLogic HCA 9000 IB 4x DDR Windows Server 2008 J. Simon 14

Agenda Vorstellung PC² Aufgabenstellung der PG Organisation der PG Seminar Ablauf Themen J. Simon 15

Warum Supercomputing? Dijkstra A quantitative change is also a qualitative difference, if the quantity has changed by an order of magnitude. A quantitative example: A baby crawls at 1 mph A marathoner runs at 10 mph A fast car can drive at 100 mph A fast jet can fly at 1,000 mph Some qualitative changes Driving allows one to go to places, you can t get to on foot Flying allows one to go to places in time that driving would not allow Dr. Mark K. Seager: Petascale Platforms: Expect the Unexpected, IEEE Cluster 2007

Scale-out Problemstellungen Demonstrate ability to model nucleation and growth independent of finite size effects ddcmd code developed on BlueGene/L wins 2005 Gordon Bell Prize: First science application to break the 100 TFlop /s barrier Dr. Mark K. Seager: Petascale Platforms: Expect the Unexpected, IEEE Cluster 2007

GRID-Computing: Wie nutze ich einen Supercomputer? Middleware Unicore Globus LCG / glite Interface Middleware RMS Lokales RMS RMS A RMS B RMS C RMS D Ressource Windows RedHat Suse Linux Solaris

Virtuelle Server Standard in modernen Rechenzentren Viele BS können gekapselt und unabhängig auf wenig Hardware ausgeführt werden Kostenoptimal Virtualisierung für High Performance Computing (HPC) Virtualisierung heute ohne großen Performanceverlust auf einem Rechner Nicht alle HPC-Applikationen sind Number crunching App. A App. A App. C App. B App. A

Virtualisierte Grid-Infrastruktur Middleware Unicore Globus LCG / glite Repository Interface Middleware RMS Lokales RMS RMS A RMS B RMS C RMS D Service Manager VirtualizaAon AbstracAon Layer Ressource XEN VMWare KVN Microsoft

Ablauf B braucht mehr Ressourcen: A & C verkleinern Migration von B Service Manager RMS Agent Agent Agent Agent A A A B B B B B C C A A D Xen Agent Xen Agent Xen Agent B Knoten 1 Knoten 2 Knoten 3

#Knoten Knoten-Anforderung der neuen Anwendung zu hoch bei aktueller Belegung! Zeit

Agenda Vorstellung PC² Aufgabenstellung der PG Organisation der PG Seminar Ablauf Themen J. Simon 23

Teilnehmer Betreuer J. Simon Georg Birkenheuer [birke@uni-paderborn.de] André Brinkmann [brinkman@uni-paderborn.de] Oliver Niehörster [nieh@uni-paderborn.de] Jens Simon [simon@uni-paderborn.de] Studierende Matthias Bolte [photon@mail.uni-paderborn.de] Holger Bürger [buerger@uni-paderborn.de] Hubert Dörmer [homerj@uni-paderborn.de] Martin Hett [martinhe@mail.uni-paderborn.de] Jürgen Kaiser [jkaiser@mail.uni-paderborn.de] Thorsten Schäfer [Uni@ThorstenSchaefer.name] Michael Sievers [michael_sievers@web.de] Andreas Weizel [weizel.andreas@freenet.de] Maximilian Wilhelm [mwilhelm@math.uni-paderborn.de] Seminar Bodo Runde [bodo.runde@googlemail.com]

Grober Ablauf Seminarphase [bis Ende Nov.] Einarbeitung ins Thema, papers lesen, zusammenfassen Seminarbericht erstellen Präsentation des Themas Einarbeitung in Methoden und Werkzeuge Präsentation nach außen (web page,...) Spezifikationsphase [Ende Nov. Bis Ende Feb.] Arbeiten in den Teilbereichen spezifizieren, Varianten, Risikoplan Interfaces zwischen den Teilbereichen definieren Zeitplan bestimmen Beschaffung notwendiger HW/SW Abgabe des Pflichtenhefts Implementierungsphase [Ende Feb. bis Ende SomSem] Dokumentation {{Implementierung, Test}*, {Systemintegration, Test}*}* Abgabe Zwischenbericht und Zwischenpräsentation Abschlussbericht, Abschluss-Präsentation J. Simon 25

Generelle Aufgaben Regelmäßige Treffen der PG In der Regel wöchentlich Treffen aller studentischen Teilnehmer In der Regel ist ein Betreuer anwesend Anfertigung eines Protokolls Verteilung von Aufgaben PG-Sprecher, Protokollführer, PG-Internetseiten, usw. Rollen können/sollen auch wechseln Teilnahme an einer Vorlesung Architektur paralleler Rechnersysteme www.uni-paderborn.de/pc2/people/jens-simon/courses/aprws08/ Operating Systems J. Simon 26

Bewertung Spielregel sind: Controlling Achten auf Einhalten des Zeitplans (Risikoplan) Gegenseitiges Festsetzen und Beachten von Deadlines Bei nicht Leistungserbringung eines Teilnehmers: 0.) in der Gruppe besprechen 1.) Gespräch mit Betreuer 2.) Trennung von dem Teilnehmer (Note 5) Bewertung Resultate der PG Individuelle Leistung Seminar (Vortrag und Ausarbeitung) Abschlusspräsentation und Abschlussbericht J. Simon 27

Hilfsmittel Email-Verteiler pg-vsc@lists.uni-paderborn.de Dokumenten Austausch/Archivierung Z.B. SVN im PC² Web-Seite der Betreuer organisatorische Informationen http://www.uni-paderborn.de/pc2/teaching/lectures/pg-vsc/ Web-Seiten der Studierenden öffentliche Präsentation der PG Z.B. Typo3 Seiten im PC² J. Simon

Termine Deadline Seminarbericht (ca. 12 Seiten) 26.11.08 Seminarpräsentationen (2 halbe Tage? Wo?) 48 KW Wöchentliche Projektgruppentreffen z.b. Fr. 15:00Uhr Präsentation der angestrebten Architektur 3 KW Deadline Spezifikation 27.02.09 Präsentation der Spezifikation 10 KW Zwischenpräsentation Abschlusspräsentation Abschlussbericht J. Simon 29

Agenda Vorstellung PC² Aufgabenstellung der PG Organisation der PG Seminar Ablauf Themen J. Simon 30

Ablauf des Seminars Verteilen von Seminarthemen (gleich) Einarbeitung in das Thema Anfertigung einer schriftlichen Ausarbeitung Abgabe der schriftlichen Ausarbeitung Anfertigung eines Folienvortrags Abgabe/Besprechung der Folien Präsentation des Vortrags J. Simon 31

Seminarthemen *aus Virtual Machines von Smith und Nair J. Simon 32