HPC an der Uni Mainz
|
|
- Irmela Michel
- vor 7 Jahren
- Abrufe
Transkript
1 Einwicklung vom ersten Top500 Rechner bis zum AHRP HPC - AHRP - ZKI Markus Tacke, ZDV, Universität Mainz AK Supercomputer Kaiserslautern
2 ZDV: CC NUMA : Convex SPP1000/16 16 PA Risc 1 GB Memory SPP-UX 4 Organisiert als 2 Nodes á 8 CPUs und 512 MB Memory Latenz: 500ns/2µs Bandbreite: 4x600MB/sek, GaAs 3,2 GF Peak, 1,653 GF Linpack
3
4 ZDV: CC NUMA : Convex SPP1200 XA/48 48 PA Risc 6 GB Memory SPP-UX5 Organisiert als 6 Nodes á 8 CPUs und 1GB Memory Latenz: 500ns/2µs Bandbreite: 4x600MB/sek, GaAs 11,52 GF Peak, 5,66 GF Linpack, Top500: Platz 298(191)/ , 243/6-1996
5 ZDV: CC NUMA : HP X/48 (Convex SPP2000-XA/48) 48 PA Risc 6 GB Memory SPP-UX5 Organisiert als 3 Nodes á 16 CPUs und 2GB Memory Latenz: 500ns/2µs Bandbreite: (2x) 8x 600MB/sek, CMOS 34,5 GF Peak, 22,3 GF Linpack, Top500: Platz 144(141)/
6 ZDV: CC NUMA : HP V2500-SCA/32 32 PA Risc 16 GB Memory HP-UX11 Organisiert als 2 Nodes á 16 CPUs und 8 GB Memory Latenz: 500ns/2µs Bandbreite: (2x) 8x 600MB/sek, CMOS 56,3 GF Peak, 31,6 GF Linpack,
7 ZDV: CC NUMA : HP Superdome/32 PA8700/ CPUs 750 MHz PA-Risc GB Memory HP-UX11 Organisiert als 8 Nodes á 4 CPUs und 8GB Memory Interconnect 2Stufiger Crossbar, Latenz: 212ns /366nsec Bandbreite/crossbar: 5,2GB/sek 96 GF Peak, 67,2 GF Linpack
8 ZDV: DM Cluster : LC1 84 Knoten dual 1.8 Ghz Opteron, 2 Vorrechner MSI K1000D (baugleich IBM E-Server 325) 336GB Memory: 32x2GB, 36x4GB, 16x 8GB Memoy Vernetzung 4 Gbit Ethernet, 1xWartungsnetz, 3xFNN Latenz 35µsec, Bandbreite 100MB/s SLES 8 + Mgmt Software 604,8 GF Peak, 406 GF Linpack
9 ZDV: DM Cluster : LC2 110 Knoten dual dualcore 2.6GHz Opteron, 2 Vorrechner Sun X2200M2 1200GB Memory: 86x8GB, 16x16GB, 8x32GB Vernetzung: 1x DDR Infiniband (MPI) 1x Gbit (Wartung, normale Kommunikation) Latenz: 3.36 µs, Bandbreite: 1,44 GB/s SLES 10+ Mgmt Software 2,288 TFlops Peak, 1,932 TFlops Linpack
10 ZDV: DM Cluster : LC2(Upgrade) 134 Knoten dual quadcore 2.7GHz Opteron, 2 Vorrechner Sun X2200M GB Memory: 86x8GB, 16x16GB, 8x32GB Vernetzung: 1x DDR Infiniband (MPI) 1x Gbit (Wartung, normale Kommunikation) Latenz: 3.36 µs, Bandbreite: 1,44 GB/s SLES 10+ Mgmt Software 11,578 TFlops Peak, >8.1 TFlops Linpack
11 Gigaflops HPC Leistung im ZDV seit Peak/system Linpack/system
12 Erweiterungen Cluster LC2 seit 2009 durch verschiedene Arbeitsgruppen erweitert Arbeitsgruppen sind Eigentümer: eigene Queues im gemeinsamen LSF teilweise Lastübername bei Unterausnutzung Unterschiedliche Architekturen 2p und 4p GigE und IB (beide mit zentralem Netzverbunden) Intel Harpertown, Nehalem und Westmere AMD Magny Cours und Interlagos Integration in ZDV Clustermgmt 1088 Cores 3412 Cores 11,75 TF Peak 36,8 TF Peak Zusätzliche HPC Resourcen an der Uni Mainz Mehrere Cluster im ZDV gehostet oder auf dem Campus Insgesamt über 34 TF Peak Einige kleine GPU Testcluster 12
13 Gigaflops HPC Leistung auf dem Campus Peak/system Linpack/system Total (N+(N-1)) Sum of Campus- Compute-Clusters
14 Analyse des Zielsystemes (1) Orientierung am Bedarf der Hauptkunden (Geldgeber für ca 75%) Beispiele: Kondensierte Materie: Monte Carlo Simulationen: Hauptlast Throughput, VIELE Single P. jobs Aber auch SMP mit großem Memory, Paralleljobs mit MD Programmen GPUs teilweise, extrem fortgeschrittene Programmierung, Consumer grade LHC Analyse: I/O Bound, viele single P. Jobs gleichzeitig, OS Constrains Monte Carlo Produktion: Viele single P. Jobs, CPU bound GEOLOGIE Finite Elemente oder F. Differenzen Verfahren, anspruchsvolle Paralleljobs Gewinn durch große SMPs Earth System Modelling Große Paralleljobs, teilweise hohe I/O Anforderungen Diverse Anwender von NGS basierter Gen (o.ä) Analyse Sehr unterschiedliches Verhalten der Programme: Jobfarming, MPI Programme aber auch SMP Programme mit SEHR großem Speicherbedarf, I/O Probleme 14
15 Analyse des Zielsystemes (2) Hauptkriterium aller Anwender: Durchsatz, nur mäßiger Fokus auf MPI parallele Jobs mit N(CPUs) >> 100 Auswahl von vier Benchmarks nach Nutzerprofil HEPspec (für LHC) leicht modifiziert auf unsere OS-Anforderungen SPECrate werte mit vorgeschriebener Baseoptimierung und GCC MC Hardwareflags erlaubt Festkörperphysik Monte Carlo Simulation, Programm des größten Kunden HPL Wert für das gesamte Cluster keine Messung gefordert, sondern Leistungszusage Unterschiedlicher Hauptspeicher ca. 80% mit 2GB/(Core/HW-Thread), ca. 20% mit 4GB/Core 15 Rechner mit 512GB Diverse Vorteile in 4 Sockel SMP Rechnern =>Leistungsplus von 1,1 von 2 Sockelrechnern gefordert Schnelles Netz mit QDR IB, Full Fat Tree bis 648 Ports, darüber 2:1 Blocking Mindestens 2 Disks, 2TB insgesamt pro Knoten 15
16 Software Scientific Linux >= 6.2 Cluster Management Software LSF 8.x Koppelung an KL via LSF Multicluster Softwareentwicklung: 5+x Compiler, Debugger Mathematica, Matlab, R, 16
17 Verfahren Aufteilung in verschiedene Beschaffungen ca 80% CPU Cluster - Beschaffung Anfang 2012 Intel und AMD sollten neue Generation haben ca 10 % paralleler Fileserver - Beschaffung Anfang bis Mitte 2012 >> 500 TB, > 10GB/sek I/O ca 10 % GPU cluster Beschaffung Ende 2012 bis Anfang 2013 Nächste Generation erst dann verfügbar Dient dem campusweiten Einstieg in GPU Technik Verfahren: EU weite Ausschreibung im Verhandlungsverfahren. Verhandlungsverfahren Arbeitsintensiver und langsamer, erlaubt aber Anpassung an unterschiedliche Technikparameter, z.b.: Intel oder AMD 2S gegen 4S Infiniband Optionen Taktfrequenz gegen Throughput 17
18 Entscheidung Megware ausgewählt Wege SMP mit AMD Opteron 6272 (16C, 2,1 GHz) 424 mit 128 GB, 96 mit 256 GB, 15 mit 512 GB Alle mit QDR Infiniband Alle mit 2x 1TB disk Cores 2 Master Rechner, redundant 2 Login Rechner QDR Infiniband von Mellanox, Full Fat Tree Topology 18 Spine- und 33 Edge Switches (55 Ports frei für Fileserver, Erweiterungen ) Rittal Water cooled Racks mit bis zu 54 KW Kühlleistung(ZDV) Rittal Power Distribution mit Auslesemöglichkeit pro 16A Sicherung Überspannungsfeinschutz integriert Notabschaltung bei Übertemperatur 18
19 Gigaflops HPC Leistung auf dem Campus Peak/system Linpack/system Total (N+(N-1)) Campus Peak summe
20 AHRP High Speed link Sofort 10 Gbit via RLP Netz In Realisierung: 12 Farben für 12x10 Gbit direkt zwischen den Ausgangsroutern der Cluster Evtl Option: stattdessen 3x 40 Gbit Höhere Datenrate für wenige Datenströme Ziel: gegenseitige Übernahme von Jobs auch mit großer Datenmenge 20
21 Als Vorabvision 21
MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz
MOGON Markus Tacke HPC ZDV HPC - AHRP Was ist Mogon allgemein? Das neue High Performance Cluster der JGU Ein neues wichtiges Werkzeug für Auswertung von Messdaten und Simulationen Beispiele Kondensierte
MehrAusblick auf den HLRN III - die neue HPC Ressource für Norddeutschland
Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 14. März 2013
MehrHLRN III - HPC Ressource für Norddeutschland
HLRN III - HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 23. September 2014 Inhalt Der HLRN Verbund
MehrT-Systems SfR - HPCN Workshop
HPC System Design und die Auswirkungen auf die Anwendungsperformance Thomas Alrutz HPC & escience Solutions & Innovations - Scientific & Technical ICT T-Systems Solutions for Research GmbH T-Systems SfR
MehrZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf
ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012 Scientific Computing in Düsseldorf Peter Schreiber schreiber@hhu.de 0211-81-13913 http://www.zim.hhu.de ZKI Arbeitskreis Supercomputing 20.-21.09.2012
MehrLinux in allen Lebenslagen. Diskless Cluster und Lustre Erfahrungsbericht zum CHiC. Frank Mietke. Chemnitzer Linux-Tage 2007
Linux in allen Lebenslagen Diskless Cluster und Lustre Erfahrungsbericht zum CHiC Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität Chemnitz Chemnitzer
MehrCLAIX Vorstellung und Technik Christian Terboven
CLAIX Vorstellung und Technik Christian Terboven Inhalte CLAIX Phase I Zwei Rack-Reihen + 2 Schränke Testbetrieb mit Projekten seit November 2016 Trier-2 HPC-System Abnahme im Januar 2017 TOP500 im November
MehrHochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner. Dr. Andreas Wolf. Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum
Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Überblick Randbedingungen der HPC Beschaffung an der
MehrEinsatz von GPFS an der JGU
Einsatz von GPFS an der JGU HPC@JGU Markus Tacke Leiter HPC ZDV Johannes Gutenberg-Universität Mainz Was Kommt? Umfeld JGU Historie HPC@JGU und seine Daten Aufgabe ATLAS I/O Lösung GPFS!! Ergebnisse.(wird
MehrDer neue Hessische Hochleistungsrechner HHLR
Der neue Hessische Hochleistungsrechner HHLR Erste Erfahrungen Norbert Conrad, conrad@hrz.tu-darmstadt.de ZKIHessen 26.8.2002 1 Darmstädter Hochleistungsrechner 1987: IBM 3090 VF ( 2 x 0,12 GFLOPS Vektor
MehrInfiniband Kopplung Heidelberg Mannheim
Infiniband Kopplung Heidelberg Mannheim Tests aktueller Komponenten und Pläne für den Ausbau S. Richling, S. Friedel (Universität Heidelberg) S. Hau, H. Kredel (Universität Mannheim) Förderträger: www.bwhpc-c5.de
MehrGeorg Hager Regionales Rechenzentrum Erlangen (RRZE)
Erfahrungen und Benchmarks mit Dual- -Prozessoren Georg Hager Regionales Rechenzentrum Erlangen (RRZE) ZKI AK Supercomputing Karlsruhe, 22./23.09.2005 Dual : Anbieter heute IBM Power4/Power5 (Power5 mit
MehrErfahrungen mit LSF an der RWTH. Eine kurze Geschichte der LoadSharingFacility
Erfahrungen mit LSF an der RWTH Eine kurze Geschichte der LoadSharingFacility Zeitlinie 2011 Wechsel SGE -> LSF, Bull Cluster, GPU-Cluster 2012 JARA-HPC 2014 Projektbewirtschaftung RWTH 2016 NEC Cluster
MehrTowards Modular Supercomputing with Slurm
Towards Modular Supercomputing with Slurm 2017-09-25 Dorian Krause et al., Jülich Supercomputing Centre, Forschungszentrum Jülich Dual-Architecture Supercomputing Facility IBM Power 4+ JUMP, 9 TFlop/s
Mehrmagnitude Erste Erfahrungen mit dem neuen HPC-System der UDE
magnitude Erste Erfahrungen mit dem neuen HPC-System der UDE ZKI-AK Supercomputing Holger Gollan Agenda Die Universität Duisburg-Essen (UDE) Das Zentrum für Informations- und Mediendienste (ZIM Das Center
MehrCHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm
CHiC er Hochleistungs-Linux Cluster Stand HPC Cluster CHiC, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität
MehrAgenda. HPC-Benutzerkolloquium. EM64T-Clustererweiterung. EM64T-Clustererweiterung am RRZE
Agenda HPC-Benutzerkolloquium G. Hager/T. Zeiser 25.01.2005 RRZE EM64T-Clustererweiterung Allgemeines (GH) Zukünftige Konfiguration: Queues, Policies, Betriebsmodus (GH) Verfügbare Compiler und MPI-Versionen
MehrParadigmenwechsel: Von der Rechner-zentrierten zur Informationszentrierten DV Skalierbarkeit: Erweiterung von Ressourcen ohne Erhöhung der
Sun: HPC mit Zukunft Wolfgang Kroj Vertriebsleiter Enterprise Business & Storage Sun Microsystems GmbH Tel.: +49-89-46008-589, Fax: +49-89-46008-590 Email: wolfgang.kroj@germany.sun.com Network Computing
MehrDas Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ
Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ Hinnerk Stüben ZKI-Arbeitskreis Supercomputing Leibniz-Rechenzentrum, Garching 19. Oktober 2015 Themen Neues HPC-Cluster
MehrDiskless Cluster und Lustre Erfahrungsbericht zum CHiC
Diskless Cluster und Lustre Erfahrungsbericht zum CHiC, Torsten Hoefler, Torsten Mehlan und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität
MehrVienna Scientific Cluster
Vienna Scientific Cluster Die Hochleistungsrechner der Wiener Universitäten Universität Wien, BOKU, TU Wien Herbert Störi Betreiber der Systeme Wir messen die Rechenleistung Instruktionen /Sekunde IPS,
MehrColdCon mini MUC ein MEGWARE-Projekt am LRZ Garching
ColdCon mini MUC ein MEGWARE-Projekt am LRZ Garching Weltweit 1. direktwassergekühlter AMD-Cluster von MEGWARE Jörg Heydemüller Unternehmensprofil Gründung 1990 in Chemnitz Sachsen rund 60 hoch ausgebildete,
MehrOrientierungsveranstaltungen 2009 Informatikstudien der Universität Wien
Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at
MehrSupercomputing 2003: Nichts geht ohne Linux
DECUS Symposium 2003 Supercomputing 2003: Nichts geht ohne Linux presented by Roland Fehrenbacher transtec AG Decus Symposium 2003 1 THE EUROPEAN IT FACTORY Übersicht! Linux Beowulf Cluster Ein neuer Standard
MehrInfiniband Diagnose und Cluster HealthCheck Arbeitskreis Supercomputing Hamburg, 2010-03-05 Peter Niessen support@par-tec.com
ParTec Cluster Competence Center GmbH Infiniband Diagnose und Cluster HealthCheck Arbeitskreis Supercomputing Hamburg, 2010-03-05 Peter Niessen support@par-tec.com 1 JuRoPA JSC: Sun Blade SB6048 2208 Compute
MehrErste Erfahrungen mit Installation und Betrieb
Erste Erfahrungen mit Installation und Betrieb von OpenHPC 14.10.2016 Holger Angenent Röntgenstr. 7-13, 48149 Münster 2 > Problemstellung Jeder neue Cluster kam bisher mit neuem Clustermanagement Einarbeitungszeit
MehrSuperMUC: Energieeffizientes Supercomputing
Torsten Bloth, HPC Systems Architect - IBM Deep Computing SuperMUC: Energieeffizientes Supercomputing ZKI AK Supercomputing, May 2011 DESY, Zeuthen SuperMUC in Germany and Europe The Leibniz Computing
MehrDeep Learning Appliance 4U Die Ready-to-Brain Komplett-Lösung
www.cadnetwork.de/deeplearning Die Ready-to-Brain Komplett-Lösung DIE KOMPLETTLÖSUNG FÜR IHRE AI PROJEKTE Die ist unser 8-GPU Flaggschiff für AI Anwendungen. Sie liefert das Potential für anspruchsvollste
MehrIBM Cluster POWER 5. Hardware: Betriebssystem: Software: EDV-Zentrum Applikationsserver Finite Elemente und Strömungsdynamik.
Chronik des Zentralen Informatikdienstes der TU Wien Mainframes, Fachbereichsrechner und Applikationsserver IBM Cluster POWER 5 EDV-Zentrum Applikationsserver Finite Elemente und Strömungsdynamik Mai 2006
MehrPerformance Analysis of Computersystems
Performance Analysis of Computersystems Introduction and Motivation Why is Performance Analysis Important? Holger Brunst (holger.brunst@tu-dresden.de) Bert Wesarg (bert.wesarg@tu-dresden.de) Overview Development
MehrTecNews: Sandy Bridge
TecNews: Sandy Bridge Werner Fischer, Technology Specialist Thomas-Krenn.AG Thomas Krenn Herbstworkshop & Roadshow 2011 23.09. in Freyung 06.10. in Wien (A) 10.10. in Frankfurt 11.10. in Düsseldorf 12.10.
MehrDie neuen Sun x64 Server Hubert Reith
Die neuen Sun x64 Server Hubert Reith x64 Business Manager Systems Practice Sales Sun Microsystems GmbH Agenda > Effizienz im Rechenzentrum > Die neuen UltraSPARC T2 Server > Die neuen Sun x64 Server Blade
MehrOracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen
DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension
Mehrmoderne Prozessoren Jan Krüger jkrueger@techfak.uni-bielefeld.de
moderne Prozessoren Jan Krüger jkrueger@techfak.uni-bielefeld.de Übersicht FachChinesisch SPARC - UltraSparc III/IV PowerPC - PowerPC 970(G5) X86 - Pentium4(Xeon), Itanium, (Pentium M) X86 - AthlonXP/MP,
MehrLOEWE-CSC and it s data center
ECO@ LOEWE-CSC LOEWE-CSC and it s data center Volker Lindenstruth FIAS, IfI, LOEWE Professur Chair of HPC Architecture University Frankfurt, Germany Phone: +49 69 798 44101 Fax: +49 69 798 44109 Email:
MehrGPGPUs am Jülich Supercomputing Centre
GPGPUs am Jülich Supercomputing Centre 20. April 2012 Jochen Kreutz Jülich Supercomputing Centre (JSC) Teil des Forschungszentrums Jülich und des Institute for Advanced Simulation (IAS) betreibt Supercomputer
MehrLeistungsanalyse von Rechnersystemen
Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH) Leistungsanalyse von Rechnersystemen Auf Ein-/Ausgabe spezialisierte Benchmarks Zellescher Weg 12 Willers-Bau A109 Tel. +49 351-463 - 32424
MehrDie deutsche Windows HPC Benutzergruppe
Christian Terboven, Dieter an Mey {terboven, anmey}@rz.rwth aachen.de Rechen und Kommunikationszentrum RWTH Aachen Windows HPC Server Launch 16. Oktober, Frankfurt am Main Agenda o Hochleistungsrechnen
MehrNeue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP)
Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP) @wefinet Werner Fischer, Thomas-Krenn.AG Webinar, 17. Oktober 2017 Intel Xeon Scalable Performance _ Das ist NEU: Neue
MehrWissenschaftliches Rechnen an der Christian- Albrechts-Universität zu Kiel
Wissenschaftliches Rechnen an der Christian- Albrechts-Universität zu Kiel ZKI-Tagung, AK Supercomputing, 16.-17.03.2015 Holger Marten Landeshauptstadt Kiel - Bodo Quante 1. Etwas Historie 16.03.2015 Dr.
MehrBetrieb eines heterogenen Clusters
Betrieb eines heterogenen Clusters Georg Hager Regionales Rechenzentrum Erlangen (RRZE) ZKI AK Supercomputing Karlsruhe, 22./23.09.2005 Transtec GBit/IB-Cluster am RRZE IA32-Cluster 04/2003 86+2 Knoten
MehrCPU-Update. best OpenSystems Day Herbst Unterföhring. Wolfgang Stief Senior Systemingenieur best Systeme GmbH GUUG Board Member
CPU-Update best OpenSystems Day Herbst 2006 Unterföhring Wolfgang Stief stief@best.de Senior Systemingenieur best Systeme GmbH GUUG Board Member Einführung Welcome to 64 Bit! Sämtliche Server-CPUs sind
MehrTitelmasterformat durch Klicken bearbeiten
Titelmasterformat durch Klicken Titelmasterformat durch Klicken Huawei Enterprise Server Systeme Global Player auf dem Server- und Storagemarkt Scale up Übersicht Titelmasterformat durch Klicken Textmasterformat
MehrHochleistungs-Disk-I/O
Hochleistungs-Disk-I/O mit Lustre, dcache und AFS eine vergleichende Betrachtung Stephan Wiesand DESY DV 33. Treffen des ZKI AK Supercomputing Hamburg, 2010-03-04 Computing am DESY Standort Zeuthen Batch
MehrUBELIX University of Bern Linux Cluster
University of Bern Linux Cluster Informatikdienste Universität Bern ID BEKO Grid Forum 7. Mai 2007 Inhalt Einführung Ausbau 06/07 Hardware Software Benutzung Dokumentation Gut zu wissen Kontakt Apple/Mac:
MehrDie Marvel, ein gedrosselter Supercomputer
Die Marvel, ein gedrosselter Supercomputer Warum ist die Marvel so schnell? Warum ist die Marvel so langsam? Erfahrungen mit dem Softwaresupport Warum ist die Marvel so schnell? Hardware Z.Cvetanovic,
MehrDell HPC Solutions. Dieter Schuett Sr. Sales Engineer Business Development HPC
Dell HPC Solutions Dieter Schuett Sr. Sales Engineer Business Development HPC Agenda Übersicht der PowerEdge Rack Server Übersicht der PowerEdge Blade Server Übersicht der PowerEdge C Server Infiniband
MehrOracle Database 10g RAC Plattformen im Detail
Oracle Database 10g RAC Plattformen im Detail Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 Agenda Einleitung RAC was ist das noch gleich? Wer die Wahl hat,
MehrSun HPC Agenda
Sun HPC 2005 - Agenda 10:00 Willkommen und Einleitung Klaus Brühl, RZ, 10:15 Neues vom Aachener Sun Fire SMP Cluster Dieter an Mey, RZ, 10:30 UltraSPARC - Today and Tomorrow Ruud van der Pas, Scalable
MehrModProg 15-16, Vorl. 13
ModProg 15-16, Vorl. 13 Richard Grzibovski Jan. 27, 2016 1 / 35 Übersicht Übersicht 1 Supercomputing FLOPS, Peak FLOPS Parallelismus Praktische Aspekte 2 Klausur von 2009 2 / 35 Supercomputing: HPC Modellierung
MehrLeistungsanalyse von Rechnersystemen
Center for Information Services and High Performance Computing (ZIH) Leistungsanalyse von Rechnersystemen 10. Oktober 2007 Zellescher Weg 12 Willers-Bau A113 Tel. +49 351-463 - 39835 Matthias S. Mueller
MehrCPU-Update. Von Äpfeln und Birnen. best OpenSystems Day Herbst Dornach. Wolfgang Stief
CPU-Update Von Äpfeln und Birnen best OpenSystems Day Herbst 2008 Dornach Wolfgang Stief stief@best.de Senior Systemingenieur best Systeme GmbH GUUG Board Member Motivation Earlier, we used 10 elements
MehrZum Aufwärmen nocheinmal grundlegende Tatsachen zum Rechnen mit reelen Zahlen auf dem Computer. Das Rechnen mit Gleitkommazahlen wird durch den IEEE
Zum Aufwärmen nocheinmal grundlegende Tatsachen zum Rechnen mit reelen Zahlen auf dem Computer. Das Rechnen mit Gleitkommazahlen wird durch den IEEE 754 Standard festgelegt. Es stehen sogenannte einfach
MehrDienstleistungen Abteilung Systemdienste
Dienstleistungen Abteilung Systemdienste Betrieb zentraler Rechenanlagen Speicherdienste Systembetreuung im Auftrag (SLA) 2 HP Superdome Systeme Shared Memory Itanium2 (1.5 GHz) - 64 CPUs, 128 GB RAM -
Mehrbw-grid Cluster in Mannheim
bw-grid Cluster in Mannheim Dr. Heinz Kredel mit Helmut Fränznick, Rudi Müller, Steffen Hau, Andreas Baust Inhalt Grid und D-Grid BMBF Projekt bw-grid Cluster Stand: Aufbau und Inbetriebnahme Benutzung
MehrCopyright 2014 Hewlett-Packard Development Company, L.P. The information contained herein is subject to change without notice.
Datacenter Architects Schritt für Schritt in das automatisierte Rechenzentrum mit HP Server Infrastruktur Stefan Weber Strategic Sales Consultant HP Enterprise Group Strategie Wachsende Rechenzentrumkonvergenz
MehrProgrammierung und Leistungsanalyse des bwgrid-clusters. Dr. Heinz Kredel und Dr. Hans-Günther Kruse
Programmierung und Leistungsanalyse des bwgrid-clusters Dr. Heinz Kredel und Dr. Hans-Günther Kruse Inhalt bwgrid Cluster Programmierung Threads, OpenMP, Kommunikation, OpenMPI, Strategien Leistungsanalyse
MehrRRZE Benchmark Suite: Eine standardisierte Benchmarkumgebung für Ausschreibungen und Evaluierungen
RRZE Benchmark Suite: Eine standardisierte Benchmarkumgebung für Ausschreibungen und Evaluierungen J. Treibig RRZE, Friedrich-Alexander-Universität Erlangen-Nürnberg 20.05.2011 Überblick Anwendung: Vorgeschriebene
MehrMotivation Cluster? H/W+Architektur Cluster Netzwerke OpenSource Cluster Demonstration Quellen. Cluster Netzwerke. Robert Hilbrich
Motivation Cluster? H/W+Architektur OpenSource Cluster Demonstration Quellen Fakultät für Informatik Humboldt Universität Berlin 21. Juli 2006 Motivation Cluster? H/W+Architektur OpenSource Cluster Demonstration
MehrCPU-Update. Wie Äpfel zu Melonen werden. best OpenSystems Day April 2010. Unterföhring
CPU-Update Wie Äpfel zu Melonen werden best OpenSystems Day April 2010 Unterföhring Wolfgang Stief wolfgang.stief@best.de Senior Systemingenieur best Systeme GmbH GUUG Board Member Motivation Alles wird
MehrSeminar Multicore-Programmierung
Multicore- und GPGPU-Architekturen Fakultät für Informatik und Mathematik Universität Passau 04. November 2010 APUs / 1 / 39 Inhaltsverzeichnis I APUs / APUs / 2 / 39 Inhaltsverzeichnis II APUs / 3 / 39
MehrPerformance Analysis of Computer Systems
Center for Information Services and High Performance Computing (ZIH) Performance Analysis of Computer Systems Introduction Holger Brunst (holger.brunst@tu-dresden.de) Matthias S. Mueller (matthias.mueller@tu-dresden.de)
MehrParallele Rechnerarchitektur II
Parallele Rechnerarchitektur II Stefan Lang Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Universität Heidelberg INF 368, Raum 532 D-692 Heidelberg phone: 622/54-8264 email: Stefan.Lang@iwr.uni-heidelberg.de
MehrDas HLRN-System. Peter Endebrock, RRZN Hannover
Das HLRN-System Peter Endebrock, RRZN Hannover vorweg (1) Heute Vorträge im Dreierpack: Peter Endebrock: Das HLRN-System Gerd Brand: MPI Simone Knief: OpenMP Peter Endebrock, RRZN Hannover, Kolloquium,
MehrSupercomputer Blue Gene/L
FH Giessen Friedberg Supercomputer Blue Gene/L Sven Wagner Übersicht Einführung Supercomputer Begriffe Geschichte TOP500 Anwendung 2 Übersicht Blue Gene/L Historie Architektur & Packaging ASIC Netzwerk
MehrXeon, Opteron, UltraSPARC höher, schneller, weiter?
Xeon, Opteron, UltraSPARC höher, schneller, weiter? best OpenSystems Day Spring 2006 Trends im CPU- und Systemdesign Unterföhring Wolfgang Stief stief@best.de Senior Systemingenieur best Systeme GmbH GUUG
MehrEinführungs-Workshop Februar Übersicht
Einführungs-Workshop ebruar 2013 Übersicht rogramm 27.2.2013 Vormittag Workshop 9:00 Christian Iwainsky SC: Best ractise Tuning 9:30 Dr.-Ing. Dörte C. Sternell NB: ASTEST 10:00 Kurs I: Die ersten Schritte
MehrHPC in Unternehmen Ein Überblick
HPC in Unternehmen Ein Überblick Harry Schlagenhauf science + computing ag IT-Dienstleistungen und Software für anspruchsvolle Rechnernetze Tübingen München Berlin Düsseldorf Inhalt 1. Unternehmen Bull/science
Mehrscience + computing ag
science + computing ag Evaluation der Integration von Windows HPC in eine bestehende Berechnungsumgebung Harry Schlagenhauf science + computing ag IT-Dienstleistungen und Software für anspruchsvolle Rechnernetze
MehrBlueGene. Seminarvortrag WS 2004/05 Sven Kapferer Lehrstuhl für Rechnerarchitektur Universität Mannheim
BlueGene Seminarvortrag WS 2004/05 Sven Kapferer Lehrstuhl für Rechnerarchitektur Universität Mannheim Gliederung Einführung Motivation Vergleich mit anderen Architekturen Architektur des BlueGene Hierarchische
MehrRuprecht-Karls-Universität Heidelberg
Ruprecht-Karls-Universität Heidelberg PS: Themen der technischen Informatik Sommersemester 2013 Referentin: Hanna Khoury Betreuer: Prof. Dr. Ulrich Brüning, Dr. Frank Lemke Datum: 10.06.2014 1) Einige
MehrC C. Hochleistungsrechnen (HPC) auf dem Windows Compute Cluster des RZ der RWTH Aachen. 1 WinHPC 2006 - Einführung Center. 31.
Hochleistungsrechnen (HP) auf dem Windows ompute luster des RZ der RWTH Aachen 31. Mai 2006 hristian Terboven Dieter an Mey {terboven anmey}@rz.rwth-aachen.de 1 WinHP 2006 - Einführung enter SunFire V40z
MehrGemeinsames TUM-LMU Seminar
Gemeinsames TUM-LMU Seminar Hochleistungsrechner: Aktuelle Trends und Entwicklungen Einführungsveranstaltung 20. Oktober 2016 LMU München Amalienstr. 73A, Raum 112 Web: http://www.lrr.in.tum.de/lehre/wintersemester-1617/seminare/hochleistungsrechneraktuelle-trends-und-entwicklungen/
MehrCluster? schnelles Netzwerk verbunden. Ziel des Clustering
1 Cluster? Ein Rechnerverbund oder engl. Computercluster bzw. meist einfach Cluster (engl. für Schwarm, Gruppe, Haufen ), bezeichnet eine Anzahl von vernetzten Computern, die von außen in vielen Fällen
MehrErfahrungen mit parallelen Dateisystemen
Erfahrungen mit parallelen n frank.mietke@informatik.tu-chemnitz.de Fakultätsrechen- und Informationszentrum (FRIZ) Professur Rechnerarchitektur Technische Universität Chemnitz 25.09.2007 - Megware HPC
MehrMehrprozessorarchitekturen
Mehrprozessorarchitekturen (SMP, UMA/NUMA, Cluster) Arian Bär 12.07.2004 12.07.2004 Arian Bär 1 Gliederung 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) Allgemeines Architektur 3. Speicherarchitekturen
MehrZukunft Hochleistungsrechnen an der TU-Darmstadt
Zukunft Hochleistungsrechnen an der TU-Darmstadt Infoveranstaltung - 15:30-17:00 Uhr Prof. Dr. Christian Bischof FG Scientific Computing im FB Informatik Leiter Hochschulrechenzentrum Dr. Andreas Wolf
MehrÜberblick. HP Beowulf Cluster. Beowulf: Ursprung und Geschichte High Performance Computing (HPC) Einsatzgebiete Aufbau Software 4/7/2005 HP
HP Beowulf Cluster Hanul Sieger, HP 2003 Hewlett-Packard Development Company, L.P. The information contained herein is subject to change without notice Überblick Beowulf: Ursprung und Geschichte High Performance
MehrOracle HA-Technologien Lizenzierung
Oracle HA-Technologien Lizenzierung Björn Bröhl OPITZ CONSULTING Gummersbach GmbH Seite 1 Was bedeutet Hochverfügbarkeit? Seite 2 Grundlagen Lizenzierung Lizenzform Kann der Endbenutzer direkt auf die
MehrHigh Performance Computing
REGIONALES RECHENZENTRUM ERLANGEN [ RRZE ] High Performance Computing Systemausbildung Grundlagen und Aspekte von Betriebssystemen und System-nahen Diensten Michael Meier, RRZE, 01.07.2015 Agenda Was bedeutet
MehrEffektive Nutzung der Simulationsumgebung Anregungen für die Praxis
1 2017 ANSYS, 14. Inc. Juni 2017 in June Winterthur 20, 2017 22. SCHWEIZER CADFEM ANSYS SIMULATION CONFERENCE Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis Martin Mann Sales & Acount
MehrODA Erfahrungen und Neuigkeiten
ODA Erfahrungen und Neuigkeiten Dierk Lenz 25. Oktober 2017 Köln Oracle Database Appliance (ODA) Mitglied der Familie der Oracle Engineered Systems, d.h.: Hardware und Software (Betriebssystem, Datenbank)
MehrSupercomputer-Hardware auf Basis von x86-prozessoren
Supercomputer-Hardware auf Basis von x86-prozessoren Vortragsreihe Professioneller IT-Betrieb in mittleren und großen Umgebungen HPC Systems Architect December 01, 2011 Titel: Supercomputer-Hardware auf
MehrThe world we live in and Supercomputing in general
The world we live in and Supercomputing in general Achim Streit aktuelle Prozessoren Desktop Intel Pentium 4 mit 3.2 GHz AMD Athlon XP 3200+ mit 2.2 GHz IBM PowerPC G5 mit 2.0 GHz (64-bit) Server & Workstation
MehrKopplung der bwgrid Cluster. Heidelberg und Mannheim
Kopplung der bwgrid Cluster von Heidelberg und Mannheim Steffen Hau, Heinz Kredel, Sabine Richling, Rolf Bogus ZKI AK Supercomputing, zib, FU Berlin, Oktober 2009 Inhalt Heidelberg und Mannheim bwgrid
Mehrtranstec Entry Level HPC Cluster
Entry Level HPC Cluster Komplettes HPC Clustersystem inklusive Installation und Lieferung Nicht genug Knoten? Fragen zu dem System? Kontaktieren Sie uns unter: 01/726 60 90 oder @.at Position 1: Rack 19"
MehrBIG UNIVERSITÄTSRECHENZENTRUM
UNIVERSITÄTS RECHENZENTRUM LEIPZIG BIG DATA @ UNIVERSITÄTSRECHENZENTRUM Forschung und Entwicklung Entwicklung eines E-Science-Angebots für die Forschenden an der Universität Leipzig Stefan Kühne Axel Ngonga
MehrEnterprise Computing
Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth WS 2011/12 Teil 5 Parallel Rechner Implementierungen Mehrfachrechner (Multiprocessor) Parallelrecher (Parallel Processor) Mehrfachrechner: Auf mehreren
MehrExadata in der Champions League - Ein Fazit nach der 1. Saison Rainer Marekwia Oracle STU, Oracle Deutschland GmbH DOAG SIG DWH, München 25.
Exadata in der Champions League - Ein Fazit nach der 1. Saison Rainer Marekwia Oracle STU, Oracle Deutschland GmbH DOAG SIG DWH, München 25. Juni 2009 Exadata in der Champions League
MehrDOAG Konferenz 2007 in Nürnberg
DOAG Konferenz 2007 in Nürnberg Auswahl und Sizing: Die richtige Hardware (+Software) für Oracle Björn Bröhl Projektmanager Handlungsbevollmächtigter Seite 1 Inhalt Die Zielsetzung Vorgehensweise Auswahl
MehrVirtualisierung: Neues aus 2010 und Trends 2011
Virtualisierung: Neues aus 2010 und Trends 2011 Werner Fischer, Technology Specialist Thomas-Krenn.AG Thomas Krenn Herbstworkshop 2010 Freyung, 24. September 2010 Agenda 1) Virtualisierungs-Software VMware
Mehr<Insert Picture Here> Oracle Exadata Database Machine: Was gibt es Neues?
Oracle Exadata Database Machine: Was gibt es Neues? Frank Schneede Leitender Berater, The following is intended to outline our general product direction. It is intended for information
Mehr2 Rechnerarchitekturen
2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf
MehrEinführung in LiDO3. Einführung LiDO3. Ingo Schulz Fakultät für Informatik / ITMC CC:HPC TU Dortmund
Einführung in LiDO3 Bei Fragen / Anregungen bitte E-Mail an: lido-team.itmc@lists.tu-dortmund.de Ingo Schulz Fakultät für Informatik / ITMC CC:HPC TU Dortmund Betrieb des LiDO3 durch ITMC CC:HPC, E-Mail:
MehrForschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft. Manfred Alef. Grid Computing Centre Karlsruhe (GridKa)
CPU Benchmarking at Manfred Alef Grid Computing Centre Karlsruhe (GridKa) Forschungszentrum Karlsruhe Institute for Scientific Computing Hermann-von-Helmholtz-Platz 1 D-76344 Eggenstein-Leopoldshafen http://www.fzk.de,
MehrHardware-beschleunigtes Cloud-Computing für die Bauteile-Identifikation (AP 6) Christian Unger, Berlin
Cloud-Computing für die Christian Unger, Berlin 29.11.2018 Agenda Über CPU 24/7 + Rechenzentrum Ziele des AP 6 Cloud-Infrastruktur + Schlüsseltechnologien Ergebnisse der Hardwarebeschleunigung Ausblick
MehrLeistungsanalyse: Analytisch/Mathematisch, Modellierung oder Hands-On, Grundgedanken zur möglichen Leistung eines Programms.
Leistungsanalyse: Analytisch/Mathematisch, Modellierung oder Hands-On, Grundgedanken zur möglichen Leistung eines Programms. Modellierung: Hardware/Software-Verhalten ist komplex, daher modellieren/abstrahieren
MehrEin Unternehmen der Firmengruppe:
Ein Unternehmen der Firmengruppe: IT unter einem Dach Mit diesem Leitgedanken haben sich unsere Unternehmen zusammengeschlossen, um ihren Kunden ganzheitliche IT-Lösungen anbieten zu können. Die Unternehmensgruppe
MehrIBM RS/6000 SP
Chronik des Zentralen Informatikdienstes der TU Wien Mainframes, Fachbereichsrechner und Applikationsserver IBM RS/6000 SP 9070-550 EDV-Zentrum Applikationsserver Freie Programmierung April 2001 Hardware:
MehrStorage an der JGU. Storage an der JGU. Klaus Merle, ZDV, Universität Mainz. 5.5.2011 Storage Consortium, Mainz
5.5.2011 Storage Consortium, Mainz 1 Johannes Gutenberg! (~1400): geboren in Mainz! ~1450: Erfindung des Buchdrucks mit beweglichen Lettern in Mainz! ==> : Druck der berühmten Gutenberg-Bibeln! langsames
Mehr