HPC an der Uni Mainz
|
|
|
- Irmela Michel
- vor 9 Jahren
- Abrufe
Transkript
1 Einwicklung vom ersten Top500 Rechner bis zum AHRP HPC - AHRP - ZKI Markus Tacke, ZDV, Universität Mainz AK Supercomputer Kaiserslautern
2 ZDV: CC NUMA : Convex SPP1000/16 16 PA Risc 1 GB Memory SPP-UX 4 Organisiert als 2 Nodes á 8 CPUs und 512 MB Memory Latenz: 500ns/2µs Bandbreite: 4x600MB/sek, GaAs 3,2 GF Peak, 1,653 GF Linpack
3
4 ZDV: CC NUMA : Convex SPP1200 XA/48 48 PA Risc 6 GB Memory SPP-UX5 Organisiert als 6 Nodes á 8 CPUs und 1GB Memory Latenz: 500ns/2µs Bandbreite: 4x600MB/sek, GaAs 11,52 GF Peak, 5,66 GF Linpack, Top500: Platz 298(191)/ , 243/6-1996
5 ZDV: CC NUMA : HP X/48 (Convex SPP2000-XA/48) 48 PA Risc 6 GB Memory SPP-UX5 Organisiert als 3 Nodes á 16 CPUs und 2GB Memory Latenz: 500ns/2µs Bandbreite: (2x) 8x 600MB/sek, CMOS 34,5 GF Peak, 22,3 GF Linpack, Top500: Platz 144(141)/
6 ZDV: CC NUMA : HP V2500-SCA/32 32 PA Risc 16 GB Memory HP-UX11 Organisiert als 2 Nodes á 16 CPUs und 8 GB Memory Latenz: 500ns/2µs Bandbreite: (2x) 8x 600MB/sek, CMOS 56,3 GF Peak, 31,6 GF Linpack,
7 ZDV: CC NUMA : HP Superdome/32 PA8700/ CPUs 750 MHz PA-Risc GB Memory HP-UX11 Organisiert als 8 Nodes á 4 CPUs und 8GB Memory Interconnect 2Stufiger Crossbar, Latenz: 212ns /366nsec Bandbreite/crossbar: 5,2GB/sek 96 GF Peak, 67,2 GF Linpack
8 ZDV: DM Cluster : LC1 84 Knoten dual 1.8 Ghz Opteron, 2 Vorrechner MSI K1000D (baugleich IBM E-Server 325) 336GB Memory: 32x2GB, 36x4GB, 16x 8GB Memoy Vernetzung 4 Gbit Ethernet, 1xWartungsnetz, 3xFNN Latenz 35µsec, Bandbreite 100MB/s SLES 8 + Mgmt Software 604,8 GF Peak, 406 GF Linpack
9 ZDV: DM Cluster : LC2 110 Knoten dual dualcore 2.6GHz Opteron, 2 Vorrechner Sun X2200M2 1200GB Memory: 86x8GB, 16x16GB, 8x32GB Vernetzung: 1x DDR Infiniband (MPI) 1x Gbit (Wartung, normale Kommunikation) Latenz: 3.36 µs, Bandbreite: 1,44 GB/s SLES 10+ Mgmt Software 2,288 TFlops Peak, 1,932 TFlops Linpack
10 ZDV: DM Cluster : LC2(Upgrade) 134 Knoten dual quadcore 2.7GHz Opteron, 2 Vorrechner Sun X2200M GB Memory: 86x8GB, 16x16GB, 8x32GB Vernetzung: 1x DDR Infiniband (MPI) 1x Gbit (Wartung, normale Kommunikation) Latenz: 3.36 µs, Bandbreite: 1,44 GB/s SLES 10+ Mgmt Software 11,578 TFlops Peak, >8.1 TFlops Linpack
11 Gigaflops HPC Leistung im ZDV seit Peak/system Linpack/system
12 Erweiterungen Cluster LC2 seit 2009 durch verschiedene Arbeitsgruppen erweitert Arbeitsgruppen sind Eigentümer: eigene Queues im gemeinsamen LSF teilweise Lastübername bei Unterausnutzung Unterschiedliche Architekturen 2p und 4p GigE und IB (beide mit zentralem Netzverbunden) Intel Harpertown, Nehalem und Westmere AMD Magny Cours und Interlagos Integration in ZDV Clustermgmt 1088 Cores 3412 Cores 11,75 TF Peak 36,8 TF Peak Zusätzliche HPC Resourcen an der Uni Mainz Mehrere Cluster im ZDV gehostet oder auf dem Campus Insgesamt über 34 TF Peak Einige kleine GPU Testcluster 12
13 Gigaflops HPC Leistung auf dem Campus Peak/system Linpack/system Total (N+(N-1)) Sum of Campus- Compute-Clusters
14 Analyse des Zielsystemes (1) Orientierung am Bedarf der Hauptkunden (Geldgeber für ca 75%) Beispiele: Kondensierte Materie: Monte Carlo Simulationen: Hauptlast Throughput, VIELE Single P. jobs Aber auch SMP mit großem Memory, Paralleljobs mit MD Programmen GPUs teilweise, extrem fortgeschrittene Programmierung, Consumer grade LHC Analyse: I/O Bound, viele single P. Jobs gleichzeitig, OS Constrains Monte Carlo Produktion: Viele single P. Jobs, CPU bound GEOLOGIE Finite Elemente oder F. Differenzen Verfahren, anspruchsvolle Paralleljobs Gewinn durch große SMPs Earth System Modelling Große Paralleljobs, teilweise hohe I/O Anforderungen Diverse Anwender von NGS basierter Gen (o.ä) Analyse Sehr unterschiedliches Verhalten der Programme: Jobfarming, MPI Programme aber auch SMP Programme mit SEHR großem Speicherbedarf, I/O Probleme 14
15 Analyse des Zielsystemes (2) Hauptkriterium aller Anwender: Durchsatz, nur mäßiger Fokus auf MPI parallele Jobs mit N(CPUs) >> 100 Auswahl von vier Benchmarks nach Nutzerprofil HEPspec (für LHC) leicht modifiziert auf unsere OS-Anforderungen SPECrate werte mit vorgeschriebener Baseoptimierung und GCC MC Hardwareflags erlaubt Festkörperphysik Monte Carlo Simulation, Programm des größten Kunden HPL Wert für das gesamte Cluster keine Messung gefordert, sondern Leistungszusage Unterschiedlicher Hauptspeicher ca. 80% mit 2GB/(Core/HW-Thread), ca. 20% mit 4GB/Core 15 Rechner mit 512GB Diverse Vorteile in 4 Sockel SMP Rechnern =>Leistungsplus von 1,1 von 2 Sockelrechnern gefordert Schnelles Netz mit QDR IB, Full Fat Tree bis 648 Ports, darüber 2:1 Blocking Mindestens 2 Disks, 2TB insgesamt pro Knoten 15
16 Software Scientific Linux >= 6.2 Cluster Management Software LSF 8.x Koppelung an KL via LSF Multicluster Softwareentwicklung: 5+x Compiler, Debugger Mathematica, Matlab, R, 16
17 Verfahren Aufteilung in verschiedene Beschaffungen ca 80% CPU Cluster - Beschaffung Anfang 2012 Intel und AMD sollten neue Generation haben ca 10 % paralleler Fileserver - Beschaffung Anfang bis Mitte 2012 >> 500 TB, > 10GB/sek I/O ca 10 % GPU cluster Beschaffung Ende 2012 bis Anfang 2013 Nächste Generation erst dann verfügbar Dient dem campusweiten Einstieg in GPU Technik Verfahren: EU weite Ausschreibung im Verhandlungsverfahren. Verhandlungsverfahren Arbeitsintensiver und langsamer, erlaubt aber Anpassung an unterschiedliche Technikparameter, z.b.: Intel oder AMD 2S gegen 4S Infiniband Optionen Taktfrequenz gegen Throughput 17
18 Entscheidung Megware ausgewählt Wege SMP mit AMD Opteron 6272 (16C, 2,1 GHz) 424 mit 128 GB, 96 mit 256 GB, 15 mit 512 GB Alle mit QDR Infiniband Alle mit 2x 1TB disk Cores 2 Master Rechner, redundant 2 Login Rechner QDR Infiniband von Mellanox, Full Fat Tree Topology 18 Spine- und 33 Edge Switches (55 Ports frei für Fileserver, Erweiterungen ) Rittal Water cooled Racks mit bis zu 54 KW Kühlleistung(ZDV) Rittal Power Distribution mit Auslesemöglichkeit pro 16A Sicherung Überspannungsfeinschutz integriert Notabschaltung bei Übertemperatur 18
19 Gigaflops HPC Leistung auf dem Campus Peak/system Linpack/system Total (N+(N-1)) Campus Peak summe
20 AHRP High Speed link Sofort 10 Gbit via RLP Netz In Realisierung: 12 Farben für 12x10 Gbit direkt zwischen den Ausgangsroutern der Cluster Evtl Option: stattdessen 3x 40 Gbit Höhere Datenrate für wenige Datenströme Ziel: gegenseitige Übernahme von Jobs auch mit großer Datenmenge 20
21 Als Vorabvision 21
MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz
MOGON Markus Tacke HPC ZDV HPC - AHRP Was ist Mogon allgemein? Das neue High Performance Cluster der JGU Ein neues wichtiges Werkzeug für Auswertung von Messdaten und Simulationen Beispiele Kondensierte
Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland
Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover [email protected] 14. März 2013
HLRN III - HPC Ressource für Norddeutschland
HLRN III - HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover [email protected] 23. September 2014 Inhalt Der HLRN Verbund
T-Systems SfR - HPCN Workshop
HPC System Design und die Auswirkungen auf die Anwendungsperformance Thomas Alrutz HPC & escience Solutions & Innovations - Scientific & Technical ICT T-Systems Solutions for Research GmbH T-Systems SfR
ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf
ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012 Scientific Computing in Düsseldorf Peter Schreiber [email protected] 0211-81-13913 http://www.zim.hhu.de ZKI Arbeitskreis Supercomputing 20.-21.09.2012
CLAIX Vorstellung und Technik Christian Terboven
CLAIX Vorstellung und Technik Christian Terboven Inhalte CLAIX Phase I Zwei Rack-Reihen + 2 Schränke Testbetrieb mit Projekten seit November 2016 Trier-2 HPC-System Abnahme im Januar 2017 TOP500 im November
Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner. Dr. Andreas Wolf. Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum
Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Überblick Randbedingungen der HPC Beschaffung an der
Einsatz von GPFS an der JGU
Einsatz von GPFS an der JGU HPC@JGU Markus Tacke Leiter HPC ZDV Johannes Gutenberg-Universität Mainz Was Kommt? Umfeld JGU Historie HPC@JGU und seine Daten Aufgabe ATLAS I/O Lösung GPFS!! Ergebnisse.(wird
Infiniband Kopplung Heidelberg Mannheim
Infiniband Kopplung Heidelberg Mannheim Tests aktueller Komponenten und Pläne für den Ausbau S. Richling, S. Friedel (Universität Heidelberg) S. Hau, H. Kredel (Universität Mannheim) Förderträger: www.bwhpc-c5.de
Erfahrungen mit LSF an der RWTH. Eine kurze Geschichte der LoadSharingFacility
Erfahrungen mit LSF an der RWTH Eine kurze Geschichte der LoadSharingFacility Zeitlinie 2011 Wechsel SGE -> LSF, Bull Cluster, GPU-Cluster 2012 JARA-HPC 2014 Projektbewirtschaftung RWTH 2016 NEC Cluster
Towards Modular Supercomputing with Slurm
Towards Modular Supercomputing with Slurm 2017-09-25 Dorian Krause et al., Jülich Supercomputing Centre, Forschungszentrum Jülich Dual-Architecture Supercomputing Facility IBM Power 4+ JUMP, 9 TFlop/s
magnitude Erste Erfahrungen mit dem neuen HPC-System der UDE
magnitude Erste Erfahrungen mit dem neuen HPC-System der UDE ZKI-AK Supercomputing Holger Gollan Agenda Die Universität Duisburg-Essen (UDE) Das Zentrum für Informations- und Mediendienste (ZIM Das Center
CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm
CHiC er Hochleistungs-Linux Cluster Stand HPC Cluster CHiC, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität
Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ
Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ Hinnerk Stüben ZKI-Arbeitskreis Supercomputing Leibniz-Rechenzentrum, Garching 19. Oktober 2015 Themen Neues HPC-Cluster
Diskless Cluster und Lustre Erfahrungsbericht zum CHiC
Diskless Cluster und Lustre Erfahrungsbericht zum CHiC, Torsten Hoefler, Torsten Mehlan und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität
Vienna Scientific Cluster
Vienna Scientific Cluster Die Hochleistungsrechner der Wiener Universitäten Universität Wien, BOKU, TU Wien Herbert Störi Betreiber der Systeme Wir messen die Rechenleistung Instruktionen /Sekunde IPS,
Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien
Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at
Infiniband Diagnose und Cluster HealthCheck Arbeitskreis Supercomputing Hamburg, 2010-03-05 Peter Niessen [email protected]
ParTec Cluster Competence Center GmbH Infiniband Diagnose und Cluster HealthCheck Arbeitskreis Supercomputing Hamburg, 2010-03-05 Peter Niessen [email protected] 1 JuRoPA JSC: Sun Blade SB6048 2208 Compute
Erste Erfahrungen mit Installation und Betrieb
Erste Erfahrungen mit Installation und Betrieb von OpenHPC 14.10.2016 Holger Angenent Röntgenstr. 7-13, 48149 Münster 2 > Problemstellung Jeder neue Cluster kam bisher mit neuem Clustermanagement Einarbeitungszeit
TecNews: Sandy Bridge
TecNews: Sandy Bridge Werner Fischer, Technology Specialist Thomas-Krenn.AG Thomas Krenn Herbstworkshop & Roadshow 2011 23.09. in Freyung 06.10. in Wien (A) 10.10. in Frankfurt 11.10. in Düsseldorf 12.10.
Die neuen Sun x64 Server Hubert Reith
Die neuen Sun x64 Server Hubert Reith x64 Business Manager Systems Practice Sales Sun Microsystems GmbH Agenda > Effizienz im Rechenzentrum > Die neuen UltraSPARC T2 Server > Die neuen Sun x64 Server Blade
Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen
DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension
moderne Prozessoren Jan Krüger [email protected]
moderne Prozessoren Jan Krüger [email protected] Übersicht FachChinesisch SPARC - UltraSparc III/IV PowerPC - PowerPC 970(G5) X86 - Pentium4(Xeon), Itanium, (Pentium M) X86 - AthlonXP/MP,
LOEWE-CSC and it s data center
ECO@ LOEWE-CSC LOEWE-CSC and it s data center Volker Lindenstruth FIAS, IfI, LOEWE Professur Chair of HPC Architecture University Frankfurt, Germany Phone: +49 69 798 44101 Fax: +49 69 798 44109 Email:
GPGPUs am Jülich Supercomputing Centre
GPGPUs am Jülich Supercomputing Centre 20. April 2012 Jochen Kreutz Jülich Supercomputing Centre (JSC) Teil des Forschungszentrums Jülich und des Institute for Advanced Simulation (IAS) betreibt Supercomputer
Die deutsche Windows HPC Benutzergruppe
Christian Terboven, Dieter an Mey {terboven, anmey}@rz.rwth aachen.de Rechen und Kommunikationszentrum RWTH Aachen Windows HPC Server Launch 16. Oktober, Frankfurt am Main Agenda o Hochleistungsrechnen
Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP)
Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP) @wefinet Werner Fischer, Thomas-Krenn.AG Webinar, 17. Oktober 2017 Intel Xeon Scalable Performance _ Das ist NEU: Neue
Wissenschaftliches Rechnen an der Christian- Albrechts-Universität zu Kiel
Wissenschaftliches Rechnen an der Christian- Albrechts-Universität zu Kiel ZKI-Tagung, AK Supercomputing, 16.-17.03.2015 Holger Marten Landeshauptstadt Kiel - Bodo Quante 1. Etwas Historie 16.03.2015 Dr.
Titelmasterformat durch Klicken bearbeiten
Titelmasterformat durch Klicken Titelmasterformat durch Klicken Huawei Enterprise Server Systeme Global Player auf dem Server- und Storagemarkt Scale up Übersicht Titelmasterformat durch Klicken Textmasterformat
Hochleistungs-Disk-I/O
Hochleistungs-Disk-I/O mit Lustre, dcache und AFS eine vergleichende Betrachtung Stephan Wiesand DESY DV 33. Treffen des ZKI AK Supercomputing Hamburg, 2010-03-04 Computing am DESY Standort Zeuthen Batch
UBELIX University of Bern Linux Cluster
University of Bern Linux Cluster Informatikdienste Universität Bern ID BEKO Grid Forum 7. Mai 2007 Inhalt Einführung Ausbau 06/07 Hardware Software Benutzung Dokumentation Gut zu wissen Kontakt Apple/Mac:
Die Marvel, ein gedrosselter Supercomputer
Die Marvel, ein gedrosselter Supercomputer Warum ist die Marvel so schnell? Warum ist die Marvel so langsam? Erfahrungen mit dem Softwaresupport Warum ist die Marvel so schnell? Hardware Z.Cvetanovic,
Dell HPC Solutions. Dieter Schuett Sr. Sales Engineer Business Development HPC
Dell HPC Solutions Dieter Schuett Sr. Sales Engineer Business Development HPC Agenda Übersicht der PowerEdge Rack Server Übersicht der PowerEdge Blade Server Übersicht der PowerEdge C Server Infiniband
Oracle Database 10g RAC Plattformen im Detail
Oracle Database 10g RAC Plattformen im Detail Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 Agenda Einleitung RAC was ist das noch gleich? Wer die Wahl hat,
Leistungsanalyse von Rechnersystemen
Center for Information Services and High Performance Computing (ZIH) Leistungsanalyse von Rechnersystemen 10. Oktober 2007 Zellescher Weg 12 Willers-Bau A113 Tel. +49 351-463 - 39835 Matthias S. Mueller
Zum Aufwärmen nocheinmal grundlegende Tatsachen zum Rechnen mit reelen Zahlen auf dem Computer. Das Rechnen mit Gleitkommazahlen wird durch den IEEE
Zum Aufwärmen nocheinmal grundlegende Tatsachen zum Rechnen mit reelen Zahlen auf dem Computer. Das Rechnen mit Gleitkommazahlen wird durch den IEEE 754 Standard festgelegt. Es stehen sogenannte einfach
Dienstleistungen Abteilung Systemdienste
Dienstleistungen Abteilung Systemdienste Betrieb zentraler Rechenanlagen Speicherdienste Systembetreuung im Auftrag (SLA) 2 HP Superdome Systeme Shared Memory Itanium2 (1.5 GHz) - 64 CPUs, 128 GB RAM -
bw-grid Cluster in Mannheim
bw-grid Cluster in Mannheim Dr. Heinz Kredel mit Helmut Fränznick, Rudi Müller, Steffen Hau, Andreas Baust Inhalt Grid und D-Grid BMBF Projekt bw-grid Cluster Stand: Aufbau und Inbetriebnahme Benutzung
Programmierung und Leistungsanalyse des bwgrid-clusters. Dr. Heinz Kredel und Dr. Hans-Günther Kruse
Programmierung und Leistungsanalyse des bwgrid-clusters Dr. Heinz Kredel und Dr. Hans-Günther Kruse Inhalt bwgrid Cluster Programmierung Threads, OpenMP, Kommunikation, OpenMPI, Strategien Leistungsanalyse
Motivation Cluster? H/W+Architektur Cluster Netzwerke OpenSource Cluster Demonstration Quellen. Cluster Netzwerke. Robert Hilbrich
Motivation Cluster? H/W+Architektur OpenSource Cluster Demonstration Quellen Fakultät für Informatik Humboldt Universität Berlin 21. Juli 2006 Motivation Cluster? H/W+Architektur OpenSource Cluster Demonstration
Seminar Multicore-Programmierung
Multicore- und GPGPU-Architekturen Fakultät für Informatik und Mathematik Universität Passau 04. November 2010 APUs / 1 / 39 Inhaltsverzeichnis I APUs / APUs / 2 / 39 Inhaltsverzeichnis II APUs / 3 / 39
Performance Analysis of Computer Systems
Center for Information Services and High Performance Computing (ZIH) Performance Analysis of Computer Systems Introduction Holger Brunst ([email protected]) Matthias S. Mueller ([email protected])
Das HLRN-System. Peter Endebrock, RRZN Hannover
Das HLRN-System Peter Endebrock, RRZN Hannover vorweg (1) Heute Vorträge im Dreierpack: Peter Endebrock: Das HLRN-System Gerd Brand: MPI Simone Knief: OpenMP Peter Endebrock, RRZN Hannover, Kolloquium,
Xeon, Opteron, UltraSPARC höher, schneller, weiter?
Xeon, Opteron, UltraSPARC höher, schneller, weiter? best OpenSystems Day Spring 2006 Trends im CPU- und Systemdesign Unterföhring Wolfgang Stief [email protected] Senior Systemingenieur best Systeme GmbH GUUG
HPC in Unternehmen Ein Überblick
HPC in Unternehmen Ein Überblick Harry Schlagenhauf science + computing ag IT-Dienstleistungen und Software für anspruchsvolle Rechnernetze Tübingen München Berlin Düsseldorf Inhalt 1. Unternehmen Bull/science
science + computing ag
science + computing ag Evaluation der Integration von Windows HPC in eine bestehende Berechnungsumgebung Harry Schlagenhauf science + computing ag IT-Dienstleistungen und Software für anspruchsvolle Rechnernetze
C C. Hochleistungsrechnen (HPC) auf dem Windows Compute Cluster des RZ der RWTH Aachen. 1 WinHPC 2006 - Einführung Center. 31.
Hochleistungsrechnen (HP) auf dem Windows ompute luster des RZ der RWTH Aachen 31. Mai 2006 hristian Terboven Dieter an Mey {terboven anmey}@rz.rwth-aachen.de 1 WinHP 2006 - Einführung enter SunFire V40z
Erfahrungen mit parallelen Dateisystemen
Erfahrungen mit parallelen n [email protected] Fakultätsrechen- und Informationszentrum (FRIZ) Professur Rechnerarchitektur Technische Universität Chemnitz 25.09.2007 - Megware HPC
Mehrprozessorarchitekturen
Mehrprozessorarchitekturen (SMP, UMA/NUMA, Cluster) Arian Bär 12.07.2004 12.07.2004 Arian Bär 1 Gliederung 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) Allgemeines Architektur 3. Speicherarchitekturen
Zukunft Hochleistungsrechnen an der TU-Darmstadt
Zukunft Hochleistungsrechnen an der TU-Darmstadt Infoveranstaltung - 15:30-17:00 Uhr Prof. Dr. Christian Bischof FG Scientific Computing im FB Informatik Leiter Hochschulrechenzentrum Dr. Andreas Wolf
Überblick. HP Beowulf Cluster. Beowulf: Ursprung und Geschichte High Performance Computing (HPC) Einsatzgebiete Aufbau Software 4/7/2005 HP
HP Beowulf Cluster Hanul Sieger, HP 2003 Hewlett-Packard Development Company, L.P. The information contained herein is subject to change without notice Überblick Beowulf: Ursprung und Geschichte High Performance
Oracle HA-Technologien Lizenzierung
Oracle HA-Technologien Lizenzierung Björn Bröhl OPITZ CONSULTING Gummersbach GmbH Seite 1 Was bedeutet Hochverfügbarkeit? Seite 2 Grundlagen Lizenzierung Lizenzform Kann der Endbenutzer direkt auf die
High Performance Computing
REGIONALES RECHENZENTRUM ERLANGEN [ RRZE ] High Performance Computing Systemausbildung Grundlagen und Aspekte von Betriebssystemen und System-nahen Diensten Michael Meier, RRZE, 01.07.2015 Agenda Was bedeutet
ODA Erfahrungen und Neuigkeiten
ODA Erfahrungen und Neuigkeiten Dierk Lenz 25. Oktober 2017 Köln Oracle Database Appliance (ODA) Mitglied der Familie der Oracle Engineered Systems, d.h.: Hardware und Software (Betriebssystem, Datenbank)
Supercomputer-Hardware auf Basis von x86-prozessoren
Supercomputer-Hardware auf Basis von x86-prozessoren Vortragsreihe Professioneller IT-Betrieb in mittleren und großen Umgebungen HPC Systems Architect December 01, 2011 Titel: Supercomputer-Hardware auf
Kopplung der bwgrid Cluster. Heidelberg und Mannheim
Kopplung der bwgrid Cluster von Heidelberg und Mannheim Steffen Hau, Heinz Kredel, Sabine Richling, Rolf Bogus ZKI AK Supercomputing, zib, FU Berlin, Oktober 2009 Inhalt Heidelberg und Mannheim bwgrid
transtec Entry Level HPC Cluster
Entry Level HPC Cluster Komplettes HPC Clustersystem inklusive Installation und Lieferung Nicht genug Knoten? Fragen zu dem System? Kontaktieren Sie uns unter: 01/726 60 90 oder @.at Position 1: Rack 19"
BIG UNIVERSITÄTSRECHENZENTRUM
UNIVERSITÄTS RECHENZENTRUM LEIPZIG BIG DATA @ UNIVERSITÄTSRECHENZENTRUM Forschung und Entwicklung Entwicklung eines E-Science-Angebots für die Forschenden an der Universität Leipzig Stefan Kühne Axel Ngonga
Exadata in der Champions League - Ein Fazit nach der 1. Saison Rainer Marekwia Oracle STU, Oracle Deutschland GmbH DOAG SIG DWH, München 25.
Exadata in der Champions League - Ein Fazit nach der 1. Saison Rainer Marekwia Oracle STU, Oracle Deutschland GmbH DOAG SIG DWH, München 25. Juni 2009 Exadata in der Champions League
Virtualisierung: Neues aus 2010 und Trends 2011
Virtualisierung: Neues aus 2010 und Trends 2011 Werner Fischer, Technology Specialist Thomas-Krenn.AG Thomas Krenn Herbstworkshop 2010 Freyung, 24. September 2010 Agenda 1) Virtualisierungs-Software VMware
<Insert Picture Here> Oracle Exadata Database Machine: Was gibt es Neues?
Oracle Exadata Database Machine: Was gibt es Neues? Frank Schneede Leitender Berater, The following is intended to outline our general product direction. It is intended for information
2 Rechnerarchitekturen
2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf
Einführung in LiDO3. Einführung LiDO3. Ingo Schulz Fakultät für Informatik / ITMC CC:HPC TU Dortmund
Einführung in LiDO3 Bei Fragen / Anregungen bitte E-Mail an: [email protected] Ingo Schulz Fakultät für Informatik / ITMC CC:HPC TU Dortmund Betrieb des LiDO3 durch ITMC CC:HPC, E-Mail:
IBM RS/6000 SP
Chronik des Zentralen Informatikdienstes der TU Wien Mainframes, Fachbereichsrechner und Applikationsserver IBM RS/6000 SP 9070-550 EDV-Zentrum Applikationsserver Freie Programmierung April 2001 Hardware:
Storage an der JGU. Storage an der JGU. Klaus Merle, ZDV, Universität Mainz. 5.5.2011 Storage Consortium, Mainz
5.5.2011 Storage Consortium, Mainz 1 Johannes Gutenberg! (~1400): geboren in Mainz! ~1450: Erfindung des Buchdrucks mit beweglichen Lettern in Mainz! ==> : Druck der berühmten Gutenberg-Bibeln! langsames
