Vienna Scientific Cluster

Größe: px
Ab Seite anzeigen:

Download "Vienna Scientific Cluster"

Transkript

1 Vienna Scientific Cluster Die Hochleistungsrechner der Wiener Universitäten Universität Wien, BOKU, TU Wien Herbert Störi Betreiber der Systeme

2 Wir messen die Rechenleistung Instruktionen /Sekunde IPS, kips, MIPS F Taktfrequenz M Takte/Instruktion Q[ IPS]= F M P Faktor für parallele Ausführung von Instruktionen (inklusive Pipelining) Es startet 1 Instruktion /Zyklus wenn P =M Instruktionen laufen bereit parallel ab, selbst für P=1! P Faktor für Parallele Ausführung ohne Pipelining P = P*M P = N pipeline * N core * N node Q[ IPS]= F M P Q [ IPS ]= FgP

3 Parallele Ausführung Pipeline: Je Takt startet eine Instruktion, benötigt aber mehrere Takte Die folgende Instruktion startet, bevor die erste fertig wird. P=1, P =M Parallele Pipelines in einem Prozessor-Kern Bei jedem Takt starten mehrere Instruktionen P>1, typisch 4 10

4

5

6 Intra-Core-Parallelisierung Pipelining Mehrere Pipelines /Core Viele Instruktionen gleichzeitig in Arbeit Es ist schwierig, das zu nutzen Optimierung im Compiler Hardwareoptimierung Hyperthreading Technische Grenzen F < 5 GHz Eher F<3,5 GHz wegen Energieverbrauch Anzahl der Pipelines <=10 Praktisch vorkommende Programme können mehr nicht nutzen Q=F*N pipeline < 35 GIPS Es gibt eine Grenze für die Rechenleistung, die einem Thread zur Verfügung steht. Die Leistung eines Cores ist seit ca nicht mehr gewachsen.

7 Multi-Core-Systeme Wir bauen mehrere Cores in ein Computersystem Symmetric Multi Processing, SMP Die Cores greifen auf denselben Hauptspeicher zu. Wir müssen unser Programm in parallel bearbeitbare Threads zerteilen. Threads sollten gleich lang rechnen. openmp als Softwareumgebung Auto-Parallelisierung verschiedener Compiler Aber: Wir müssen die Daten nicht zerteilen! Problem: Bandbreite des Hauptspeichers Grenze 4 6 Cores Echtes SMP Alle Cores haben auf alle Speicheraddressen dieselbe Zugriffszeit 2 3 GHz, 2 3x DDR3, 1333 MHz RAM

8 Problemzone Hauptspeicherzugriff Bus führt nur einen Transfer gleichzeitig aus Viele schnelle CPUs überlasten den Bus Cache hilft bis zu einem bestimmten Punkt Problem: Caches der einzelnen CPUs müssen konsistente Inhalte haben (cache coherency, cc) Alle CPUs sehen den gleichen Speicher (uniform memory architecture UMA) ein Datenelement hat aus Sicht aller CPUs dieselbe Adresse CPU1 Haupt- Speicher1 CPU2 Memory-Bus Haupt- Speicher2 CPU3 Master/ Slave Bridge Bus-Contr. Disk- Netzwerk Controller Master/ Master/ Slave Slave I/O-Bus (PCI-Bus) Master/ Slave Slave I/O- Device

9 Lösungen für HS-Zugriff Extrem leistungsfähiger Speicherbus Beispiel IBM Power Bit Breite (sehr teuer) Mehrere getrennte Speicherbusse mit Cross-Bar-Switch Hilft statistisch nicht alle CPUs greifen gleichzeitig auf denselben Speicherbus zu (Aufwand?) Mehrere getrennte Speicher für jeweils eine oder einige CPUs (non uniform memory architecture NUMA) Variante A: Kopplung über Netzwerk, jede CPU sieht nur ihren Speicher (Cluster, Kommunikation explizit in Software) Adressraum separat je CPU/Knoten Variante B: Kopplung über spezielles Netzwerk, jede CPU sieht alle Speicher Zugriffszeit auf fremde Speicherbereiche ist erhöht Cache-Ladung aus fremden Speichern ist transparent aber langsam (cache coherent non uniform memory architecture (ccnuma) Kernel sorgt dafür, dass jede CPU oft Gebrauchtes im lokalen Speicher hat Einheitlicher Adressraum

10 Cross-Bar-Switch Anzahl der gleichzeitigen Zugriffe Max(N CPU, N Speicher ) Aufwand: N CPU X N speicher Frage: Was machen wir mit dem I/O-Bus? CPU1 CPU2 CPU3 Haupt- Speicher1 Haupt- Speicher2

11 Verteilter Hauptspeicher CPU1 CPU2 CPU3 Knoten 1 CPU1 CPU2 CPU3 Knoten 4 Memory-Bus Memory-Bus Haupt- Speicher1 Haupt- Speicher2 Inter- Connect Haupt- Speicher1 Haupt- Speicher2 Inter- Connect Moderne Lösung z. B. 1 Knoten VSC-2 Knoten 2 Knoten 3 CPU1 CPU2 CPU3 CPU1 CPU2 CPU3 Memory-Bus Memory-Bus Haupt- Speicher1 Haupt- Speicher2 Inter- Connect Haupt- Speicher1 Haupt- Speicher2 Inter- Connect

12 2 Sockel 12 core Intel Westmere System

13 Mehr-Sockel Systeme Der 4. HT-Link je Prozessor-Chip dient für I/O Chipsets oder Verbindung zu weiteren CPUs

14 Cluster Einzelne Knoten werden zu einem Clustersystem verbunden. Ein Knoten ist ein vollwertiger Computer mit CPUs, Hauptspeicher, Disks, etc. Kann auch ein SMP-System mit verteiltem Hauptspeicher sein Die Knoten werden mit einem Netzwerk verbunden Ethernet in vielen Fällen zu langsam, lange round-trip-time InfiniBand relativ teuer, sehr schnell, deterministisch Beispiel QDR4x (4 Kanäle, quad data rate) 32 Gbit/sec Topologie meist ein Baum 36 port nonblocking switches weitere... Die Daten sind verteilt Code und Daten werden verteilt Zugriff nur auf Daten auf demselben Node Software: Message Passing Interface MPI Keine automatische Parallelisierung

15 InfiniBand 1 Ebene: 1 switch max 36 Knoten (einfach) 2 Ebenen: max 54 (36+18) switches max 624 (18x36 Knoten) 3 Ebenen: max 1596 (54x18+624) switches max Knoten Alternativen Überbuchtes Netzwerk obere Ebenen haben nicht die volle Bandbreite Andere Topologie und Netzwerktechnologie Grosse switches (2 Ebenen in 1 Kasten)

16 InfiniBand (2) Switch 1 Ebene, 36 Knoten maximal K1... K36 Uplinks: Jede Linie entspr. 6 Verbindungen 2 Ebenen Beispiel: 9 Switches, 108 Knoten (6x18) maximal Volle Bandbreite. Jeder Switch 1. Ebene hat 18 down- und 18 uplinks Switch2.1 Switch2.2 Switch2.3 Switch1 Switch2... Switch6 K K1.18 K K2.18 K K6.18 Wir könnten auch einen Switch 2. Ebene einsparen. Dann hätte jeder Switch 1. Ebene nur 12 uplinks und 24 ports für downlinks. Dann hätten wir 8 Switches und 6x24=144 Knoten. Das Netzwerk wäre dann 2fach überbucht, was meist kein Problem ist.

17 Leistungsmessung für Hochleistungsrechner Wir zählen nur Gleitkomma-Operationen (DOUBLE) engl.: floating point OK für Physik, Chemie, Meteorologie, Ingenieurwissenschaften Instruktionen mit mehreren Gleitkomma-Operationen zählen mehrfach Vektor, Fused Multiply-Add (FMA) Der Wert anderer Instruktionen ist zu variabel Frage: Bioinformatik, Bildverarbeitung, Parallelverarbeitungsfaktor für Gleitkomma PF=NF*Ncore*Nnode NF Zahl der Gleitkomma-Operationen /Takt/Core NF=4 für alle gängigen Cores NF=8 IBM Power7 und Hitachi Sparc8 R peak [FLOPS] = F*PF theoretisch maximale Gleitkommaleistung R max [FLOPS] < R peak praktisch erreichbare Gleitkommaleistung wird mit Testprogammen (Benchmarks) gemessen

18 Benchmarks - Testprogramme Leistungs-Benchmark: Absolute Zeit um ein Problem zu lösen Meist mehrere verschiedene Probleme Punkte = 1/Zeit Beispiele: SPECint2006, SPECfp LINPACK-Benchmark für HPC: Invertiert eine Matrix, auch parallel Durchsatz-Benchmark Wie oft kann das Problem in einer bestimmten Zeit gelöst werden, auch parallel Meist eine Mischung von Problemen Beispiele: SPECint_rate2006, SPECfp_rate Unser Benchmark für HPC-Ausschreibungen Testet auch, ob die wichtigsten Programme laufen. Resultate sehr ähnlich SPECfp_rate2006

19 TOP500-Liste 2mal jährlich neu 500 leistungsfähigste Computer Verwendung des Linpack-Benchmarks Man löst A Matrix n*n x,b Vektoren ε Genauigkeit der Gleitkomma-Operationen für DOUBLE R max = FLOP/Zeit VSC-2: n Gleichung: Test : FLOP : A r x = r b A r x r b A g r x 2 3 n3 + 2n 2 < nε

20 Vienna Scientific Cluster U Universität für Bodenkultur Wien

21 Vienna Scientific Cluster Universität für U Bodenkultur Wien Sommer 2008: Anforderungen: Ziele: Das HPC-Projekt der drei Wiener Universitäten Compute-Nodes (X86 Architektur, min. 2GB mem/core) Zugangs- und Managementknoten InfiniBand-Netzwerk Gbit-Netzwerk, Clustermanagement max. 180KW Anschlussleistung (inkl. Interner Kühlung) Platz ~200 in der TOP500-Liste (Nov.2009) EU-weite Ausschreibung: Auftragsvolumen: max. 1.6 Mio Veröffentlichung: Zuschlag:

22 Vienna Scientific Cluster Installationsbeginn: Ende Juni 2009 Ergebnis der Ausschreibung 13 Angebote von 10 Firmen (2x AMD, 9x Intel) Zuschlag an IPS/SUN für folgende Komponenten: Compute-Nodes SUN Fire X2270 (2x Intel X5550 QC, 2.66 GHz) je 24 Gbyte Memory (6x 4 GB DDR3, 1333) - 5 Zugangs- und Managementknoten (SUN Fire X4245) - InfiniBand-Netzwerk von QLogic (DDR und QDR) - Gbit-Netzwerk, - Clustermanagement (Serviceprozessor pro Node) - 16 x 19 Serverschränke + 6 CoolLoops (Knuerr) - Betriebsystem: Linux CentOS - Batch-System: Sun Open Source Grid Engine - Parallelisierung: QLogic MPI

23 Vienna Scientific Cluster Abnahme Leistungstest (Benchmarks): bessere Werte als im Angebot Dauertest (14 Tage) Linpack-Benchmark auf 3650 cores, 35.5 Tflops TOP500: 156 Green500: 94 Abnahme der Cluster-Infrastruktur, Messung der Stromaufnahme (180 KW) 16 x 19 Serverschränke + 6 CoolLoops (Knuerr) Benutzer-Testbetrieb ab , Produktionsbetrieb ab Betriebsystem: Linux CentOS AWS: - Gaussian 09 - Batch-System: Sun Grid Engine - OpenFOAM - HDF5 - R - Global Arrays

24 Vienna Scientific Cluster Blockdiagramm SUN Fire X2270

25 Netzwerkstruktur VSC Vienna Scientific Cluster

26 Vienna Scientific Cluster U Universität für Bodenkultur Wien

27 Vienna Scientific Cluster

28 Vienna Scientific Cluster

29 Vienna Scientific Cluster

30 Vienna Scientific Cluster Zugang: Begutachtete Projekte Förderprojekte: Sind Projekte von externen Forschungsfinanzierern (etwa: EU, ERC, FWF, FFG, WWTF,...) begutachtet und finanziert, verlassen wir uns auf das Begutachtungsverfahren der Fördergeber. Wir legen die Rechenzeit gewissermaßen drauf. Interne Projekte: Wir lassen begutachten. Das macht das Vizerektorat für Forschung, kommt aber selten vor. Andere Projekte Externe Projekte: Rechenzeit wird bezahlt. Bisher nicht vorgekommen. Testprojekte: core-h innerhalb von 2 Monaten werden von den Systembetreuern vergeben, typischerweise innerhalb von 1-2 Tagen.

31 Vienna Scientific Cluster Anwendungen (ca 60 aktive Projekte): Materialwisssenschaften Ab-initio Festkörperphysik und -chemie (VASP, WIEN2k,..) Moleküldynamik, Phasenübergänge, Quanten-Monte-Carlo Weiche Materie Physik, Astronomie Quantenchromodynamik Quark-Gluon-Plasma Quantenphysik Wechsewirkung Strahlung mit Atomen Relativitätstheorie Sternmodelle (ANTARES) Chemie Quantenchemie (GAUSSIAN) Ionische Flüssigkeiten Verfahrenstechnik, Strömung (openfoam)

32 Vienna Scientific Cluster Anwendungen (2): Meteorologie, Klima Kleinräumige Klimamodelle (MM5,...) Hydrologie, Schneetransport Strahlungstransport im gebirgigen Gelände Boden, Grundwasser, Transport von Schadstoffen Bioinformatik Analyse von DNA-Sequenzen (BLAST) Genom-Analyse: Erstellung von Vererbungsbäumen Problem: Große Datensätze brauchen großes virtuelles Memory Mathematik, Informatik, Statistik MATLAB, Mathematica,...

33 Vienna Scientific Cluster Parallelisierungsgrad

34 Weitere Entwicklung: Vienna Scientific Cluster Erweiterung VSC-1 4 Knoten mit je 2 GPUs, weitere Knoten Zykluszeit (Plan): Neues System alle 18 Monate (eher 24 M) im stationären Zustand 3 Systeme parallel Neuer Standort Arsenal (Nähe neuer Hauptbahnhof) Science Center der TU Wien (Standort für Großlabors) Mehr Leistung, mehr Kühlung, mehr Platz Umbau ab Herbst 2010 (Tatsächlich März 11) Personal-Aufstockung Zusätzlich 2 Personen (Kvasnicka, Stöhr) VSC-2 Ausschrebung im Sommer 2010 Kosten ca 4 Mio. incl MWSt. Betrieb ab März 2011 (September 11)

35 Vienna Scientific Cluster VSC-2: Ausschreibung (veröffentlicht 30. September 2010): Architectur: offen, keine GPU s Finanzrahmen: 4,2 M (plus optional file servers) Site: Arsenal, ScienceCenter der TUW Kriterien: 60% Durchsatz., 30% Energieeff, 10% Preis Resultat 14 Angebote von 10 Firmen Sieger: MEGWARE 1314 compute nodes mit zwei 8-core Opteron 6132HE, 2,2 GHz und je 32 Gbyte Infiniband QDR 3-level fabric with 2- and 7-fold oversubsription R peak =185 Tflop/s 30 Racks mit cool doors (passive Wasserkühlung) Start der Installation: 3. Mai, 2011 Zur Zeit: Abnahme

36 March 2011 Vienna Scientific Cluster VSC-2

37 Vienna Scientific Cluster VSC Mai

38 Vienna Scientific Cluster VSC-2

39 Infrastruktur System Disks 16 Gbyte SSD (oft Benötigtes) 2 NFS-Server (seltener Benötigtes) Head Nodes Sun Grid Engine (Queing System) Fabric Manager Cluster Management Software Login Nodes 3 Stück, einer je Universität Im LAN der entsprechenden UNI (VLAN) /home 2 NFS-Server, ca 60 TByte /scratch 12 Fileserver, ca 250 Tbyte Paralleles Filesytem: Fraunhofer FHGFS Metadaten: Verteilt auf Fileserver, je Server 128GByte SSD Durchsatz ca. 6 Gbyte/sec Vergabeasistent: Webbasiertes Projektmanagement Netzwerkanbindung: 2x 10Gbit/s redundant nach aussen Interne Netzwerke Infiniband Gbit LAN zu allen Nodes Gbit Management LAN zu den Serviceprozessoren

40 Vienna Scientific Cluster VSC-2 Power and cooling

41 Vienna Scientific Cluster Energie Aspeckte (VSC-2) Zusammenstellung Energieverbrauch: System Fileservers Total Computer Pumpen, Raumkühler Total kw 20 kw 450 kw 50 kw (Nennleistungen) 500 kw Kompressoren (Abhängig von der Kühlwassertemperatur) 50 kw (18 C Kühlwasser, teilweise freie Kühlung) Ventilatoren außen 40 kw (Nennleistung) Grand Total 600 kw = 1,33 x Total Computer Größere Kühler mit geringer Luftgeschwindigkeit und noch höhere Kühlwassertemperatur würden helfen

42 Vienna Scientific Cluster VSC-2 Status: Baustelle Infrastruktur System noch immer nicht ganz fertig temporäres Kühlaggregat kein Raumklima nur Cool Doors temporäre elektrische Anspeisung Benutzertestbetrieb Top-500 Test: Rmax=135,6Tflops Platz 56 (Juni 2011) Green-500: 315,35 Mflops/Watt Platz 71 Nach dem Wechsel aller Memories Rmax=152,9 Tflops (82% Rpeak) 354 Mflops/Watt (Blue Gene P )

43 Vienna Scientific Cluster Projektkosten (VSC-2) Vollkosten für 4 Jahre: Hardware 50% Energie 30% Industriepreis, keine Erhöhungen inkludiert Gebäude 10% Personal 10%

44 Verlässlichkeit Mean time between failure MTBF MTBF für 1 Knoten Stunden (12 Jahre) MTBF für 1314 Knoten /1314 = 76 Stunden (ca. 3 Tage) Problem: stirbt 1 Knoten den ein Programm verwendet, bricht das Programm ab. Speicherinhalt des kaputten Knotens ist verloren. Über redundante Software-Techniken wird nachgedacht

45 Vienna Scientific Cluster Vergleich VSC-1 VSC-2 Nacktes Sytem, ohne File Server, etc. System VSC-1 VSC-2 Ratio R max Tflop/s 35, ,28 Preis M 1,6 4,2 2,63 Anschlussleistung kw ,38 Preis/Leistung Tflop/s/M 22,2 36,2 1,63 Energie effizienz MFlop/s/W ,77 R peak /core Gflop/s 10,66 8,8 0,83 Conclusion: VSC-2 hat nach knapp 2 Jahren nahezu doppelte Energie und Preis- Effizienz Aber: VSC-1 hat schnellere Prozessor-Kerne!

46 Vienna Scientific Cluster Vergabepoliitk 2 Prioritäten: regular: Projekte mit verfügbarem Kontingent idle: Projekte mit verbrauchtem Kontingent System VSC-1 VSC-2 Min job size Max job size without operator 1 core 512 cores 16 cores 1 node 4096 cores 256 nodes Max run time 72 hours 72 hours Accounting and scheduling unit 1 core 1 node

47 Vienna Scientific Cluster U Universität für Bodenkultur Wien

48 Vienna Scientific Cluster Ausblick: Ende Oktober 11: Jänner 2012: Februar 2012: Herbst 2012: Anfang 2013: Fertigstellung Energie, Klima Regulärer Benutzerbetrieb (wird verrechnet) Benutzerworkshop Fragen: Architektur und Auslegung VSC-3 Start Vorbereitung Ausschreibung VSC-3 Anlieferung VSC-3 Betrieb VSC-3

HPC an der Uni Mainz

HPC an der Uni Mainz Einwicklung vom ersten Top500 Rechner bis zum AHRP HPC - AHRP - ZKI Markus Tacke, ZDV, Universität Mainz AK Supercomputer Kaiserslautern 19.4.2012 ZDV: CC NUMA 1.1.1995: Convex SPP1000/16 16 PA Risc 7100

Mehr

Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland

Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 14. März 2013

Mehr

HLRN III - HPC Ressource für Norddeutschland

HLRN III - HPC Ressource für Norddeutschland HLRN III - HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 23. September 2014 Inhalt Der HLRN Verbund

Mehr

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz MOGON Markus Tacke HPC ZDV HPC - AHRP Was ist Mogon allgemein? Das neue High Performance Cluster der JGU Ein neues wichtiges Werkzeug für Auswertung von Messdaten und Simulationen Beispiele Kondensierte

Mehr

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1 Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer

Mehr

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at

Mehr

Die Architektur des Sun UltraSPARC T2 Prozessors, Anwendungsszenarien

Die Architektur des Sun UltraSPARC T2 Prozessors, Anwendungsszenarien Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur, Prof. Spallek Die Architektur des Sun UltraSPARC T2 Prozessors, Anwendungsszenarien Tobias Berndt, to.berndt@t-online.de

Mehr

Cluster? schnelles Netzwerk verbunden. Ziel des Clustering

Cluster? schnelles Netzwerk verbunden. Ziel des Clustering 1 Cluster? Ein Rechnerverbund oder engl. Computercluster bzw. meist einfach Cluster (engl. für Schwarm, Gruppe, Haufen ), bezeichnet eine Anzahl von vernetzten Computern, die von außen in vielen Fällen

Mehr

Enterprise Computing

Enterprise Computing Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth Teil 6 Partitionierung NUMA Sharing Disk Storage HP Superdome Cell Board 4 Itanium 2 CPU Chips 32 128 Gbyte I/O Bus mit Kühlern Hauptspeicher Anschlüsse

Mehr

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension

Mehr

CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm

CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm CHiC er Hochleistungs-Linux Cluster Stand HPC Cluster CHiC, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität

Mehr

Formulieren von Leistungsverzeichnissen

Formulieren von Leistungsverzeichnissen Formulieren von Leistungsverzeichnissen - typische Fehler - Jan Heichler System Architect www.clustervision.com 1 Product & Services Turnkey clusters Compute clusters Storage clusters GPU clusters Cluster

Mehr

Architektur paralleler Plattformen

Architektur paralleler Plattformen Architektur paralleler Plattformen Freie Universität Berlin Fachbereich Informatik Wintersemester 2012/2013 Proseminar Parallele Programmierung Mirco Semper, Marco Gester Datum: 31.10.12 Inhalt I. Überblick

Mehr

Spielst du noch oder rechnest du schon?

Spielst du noch oder rechnest du schon? Spielst du noch oder rechnest du schon? Mit Spielkonsole und Co. zum Supercomputer der Zukunft Fachbereich Elektrotechnik und Informationstechnik Fachhochschule Bielefeld University of Applied Sciences

Mehr

Introduction Workshop 11th 12th November 2013

Introduction Workshop 11th 12th November 2013 Introduction Workshop 11th 12th November 2013 Lecture I: Hardware and Applications Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Overview Current and next System Hardware Sections

Mehr

UBELIX University of Bern Linux Cluster

UBELIX University of Bern Linux Cluster University of Bern Linux Cluster Informatikdienste Universität Bern ID BEKO Grid Forum 7. Mai 2007 Inhalt Einführung Ausbau 06/07 Hardware Software Benutzung Dokumentation Gut zu wissen Kontakt Apple/Mac:

Mehr

Die Vision Landschaft und was sie mit Moore s Gesetz zu tun hat

Die Vision Landschaft und was sie mit Moore s Gesetz zu tun hat Die Vision Landschaft und was sie mit Moore s Gesetz zu tun hat Horst A. Mattfeldt Produkt Manager Matrix Vision GmbH V1.0 10/2010 MATRIX VISION GmbH 1 Inhalt/Content: Vom Vision Sensor über Atom Boxen

Mehr

ModProg 15-16, Vorl. 13

ModProg 15-16, Vorl. 13 ModProg 15-16, Vorl. 13 Richard Grzibovski Jan. 27, 2016 1 / 35 Übersicht Übersicht 1 Supercomputing FLOPS, Peak FLOPS Parallelismus Praktische Aspekte 2 Klausur von 2009 2 / 35 Supercomputing: HPC Modellierung

Mehr

Multicore-Architekturen

Multicore-Architekturen Universität Erlangen- Nürnberg Technische Universität München Universität Stuttgart Multicore-Architekturen Vortrag im Rahmen der Ferienakademie 2009 Kurs 1: Programmierkonzepte für Multi-Core Rechner

Mehr

Proseminar Rechnerarchitekturen. Parallelcomputer: Multiprozessorsysteme

Proseminar Rechnerarchitekturen. Parallelcomputer: Multiprozessorsysteme wwwnet-texde Proseminar Rechnerarchitekturen Parallelcomputer: Multiprozessorsysteme Stefan Schumacher, , PGP Key http://wwwnet-texde/uni Id: mps-folientex,v

Mehr

ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf

ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012 Scientific Computing in Düsseldorf Peter Schreiber schreiber@hhu.de 0211-81-13913 http://www.zim.hhu.de ZKI Arbeitskreis Supercomputing 20.-21.09.2012

Mehr

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel Freiberuflicher Schwerpunkte: Unix, Oracle, Netzwerk 2005 1 Testaufbauten von Oracle 10g RAC auf preiswerter Hardware 2 3 Typisches Cluster System Clients Public Network Node A Node B Cluster Interconnect

Mehr

Busse. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009

Busse. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 Busse Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 Busse 1/40 2008-10-13 Übersicht 1 Einleitung 2 Bus-Konfiguration

Mehr

Opteron und I/O. Toni Schmidbauer. 11. Mai Zusammenfassung. Eine kurze Beschreibung der AMD Opteron Architektur.

Opteron und I/O. Toni Schmidbauer. 11. Mai Zusammenfassung. Eine kurze Beschreibung der AMD Opteron Architektur. Opteron und I/O Toni Schmidbauer 11. Mai 2005 Zusammenfassung Eine kurze Beschreibung der AMD Opteron Architektur Inhaltsverzeichnis 1 Allgemeines 2 2 Was ist ein Interconnect? 2 3 Traditionelles PC Chipset

Mehr

Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ

Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ Hinnerk Stüben ZKI-Arbeitskreis Supercomputing Leibniz-Rechenzentrum, Garching 19. Oktober 2015 Themen Neues HPC-Cluster

Mehr

XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25

XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25 XEN Performance Projektpraktikum Informatik Arne Klein 2008-02-26 Arne Klein () XEN Performance 2008-02-26 1 / 25 1 Virtualisierung mit XEN 2 Performance von XEN Allgemeines Netzwerk-Performance IO-Performance

Mehr

Rechnerstrukturen. 6. System. Systemebene. Rechnerstrukturen Wintersemester 2002/03. (c) Peter Sturm, Universität Trier 1. Prozessor.

Rechnerstrukturen. 6. System. Systemebene. Rechnerstrukturen Wintersemester 2002/03. (c) Peter Sturm, Universität Trier 1. Prozessor. Rechnerstrukturen 6. System Systemebene 1 (Monoprozessor) 2-n n (Multiprozessor) s L1- in der L2- ( oder Motherboard) ggf. L3- MMU Speicher Memory Controller (Refresh etc.) E/A-Geräte (c) Peter Sturm,

Mehr

Neues in Hyper-V Version 2

Neues in Hyper-V Version 2 Michael Korp Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/mkorp Neues in Hyper-V Version 2 - Virtualisieren auf die moderne Art - Windows Server 2008 R2 Hyper-V Robust Basis:

Mehr

Rechner Architektur. Martin Gülck

Rechner Architektur. Martin Gülck Rechner Architektur Martin Gülck Grundlage Jeder Rechner wird aus einzelnen Komponenten zusammengesetzt Sie werden auf dem Mainboard zusammengefügt (dt.: Hauptplatine) Mainboard wird auch als Motherboard

Mehr

Erfahrungen mit parallelen Dateisystemen

Erfahrungen mit parallelen Dateisystemen Erfahrungen mit parallelen n frank.mietke@informatik.tu-chemnitz.de Fakultätsrechen- und Informationszentrum (FRIZ) Professur Rechnerarchitektur Technische Universität Chemnitz 25.09.2007 - Megware HPC

Mehr

Betrieb eines heterogenen Clusters

Betrieb eines heterogenen Clusters Betrieb eines heterogenen Clusters Georg Hager Regionales Rechenzentrum Erlangen (RRZE) ZKI AK Supercomputing Karlsruhe, 22./23.09.2005 Transtec GBit/IB-Cluster am RRZE IA32-Cluster 04/2003 86+2 Knoten

Mehr

Oracle EngineeredSystems

Oracle EngineeredSystems Oracle EngineeredSystems Überblick was es alles gibt Themenübersicht Überblick über die Engineered Systems von Oracle Was gibt es und was ist der Einsatzzweck? Wann machen diese Systeme Sinn? Limitationen

Mehr

Grundlagen der Rechnerarchitektur

Grundlagen der Rechnerarchitektur Grundlagen der Rechnerarchitektur Ein und Ausgabe Übersicht Grundbegriffe Hard Disks und Flash RAM Zugriff auf IO Geräte RAID Systeme SS 2012 Grundlagen der Rechnerarchitektur Ein und Ausgabe 2 Grundbegriffe

Mehr

moderne Prozessoren Jan Krüger jkrueger@techfak.uni-bielefeld.de

moderne Prozessoren Jan Krüger jkrueger@techfak.uni-bielefeld.de moderne Prozessoren Jan Krüger jkrueger@techfak.uni-bielefeld.de Übersicht FachChinesisch SPARC - UltraSparc III/IV PowerPC - PowerPC 970(G5) X86 - Pentium4(Xeon), Itanium, (Pentium M) X86 - AthlonXP/MP,

Mehr

Die neuen Sun x64 Server Hubert Reith

Die neuen Sun x64 Server Hubert Reith Die neuen Sun x64 Server Hubert Reith x64 Business Manager Systems Practice Sales Sun Microsystems GmbH Agenda > Effizienz im Rechenzentrum > Die neuen UltraSPARC T2 Server > Die neuen Sun x64 Server Blade

Mehr

Inhalt. Prozessoren. Curriculum Manfred Wilfling. 28. November HTBLA Kaindorf. M. Wilfling (HTBLA Kaindorf) CPUs 28. November / 9

Inhalt. Prozessoren. Curriculum Manfred Wilfling. 28. November HTBLA Kaindorf. M. Wilfling (HTBLA Kaindorf) CPUs 28. November / 9 Inhalt Curriculum 1.4.2 Manfred Wilfling HTBLA Kaindorf 28. November 2011 M. Wilfling (HTBLA Kaindorf) CPUs 28. November 2011 1 / 9 Begriffe CPU Zentraleinheit (Central Processing Unit) bestehend aus Rechenwerk,

Mehr

Programmierung und Leistungsanalyse des bwgrid-clusters. Dr. Heinz Kredel und Dr. Hans-Günther Kruse

Programmierung und Leistungsanalyse des bwgrid-clusters. Dr. Heinz Kredel und Dr. Hans-Günther Kruse Programmierung und Leistungsanalyse des bwgrid-clusters Dr. Heinz Kredel und Dr. Hans-Günther Kruse Inhalt bwgrid Cluster Programmierung Threads, OpenMP, Kommunikation, OpenMPI, Strategien Leistungsanalyse

Mehr

z/architektur von IBM

z/architektur von IBM von IBM Grundzüge einer modernen Architektur Von Matthias Fäth Gliederung Geschichtlicher Überblick Neuestes Flaggschiff Namensgebung Überblick Warum 64-Bit große Register Kompatibilität zu älteren Systemen

Mehr

Leistungsanalyse von Rechnersystemen

Leistungsanalyse von Rechnersystemen Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH) Leistungsanalyse von Rechnersystemen Auf Ein-/Ausgabe spezialisierte Benchmarks Zellescher Weg 12 Willers-Bau A109 Tel. +49 351-463 - 32424

Mehr

Die deutsche Windows HPC Benutzergruppe

Die deutsche Windows HPC Benutzergruppe Christian Terboven, Dieter an Mey {terboven, anmey}@rz.rwth aachen.de Rechen und Kommunikationszentrum RWTH Aachen Windows HPC Server Launch 16. Oktober, Frankfurt am Main Agenda o Hochleistungsrechnen

Mehr

Multicore Herausforderungen an das Software-Engineering. Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010

Multicore Herausforderungen an das Software-Engineering. Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010 Multicore Herausforderungen an das Software-Engineering Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010 Inhalt _ Motivation _ Herausforderung 1: Hardware _ Herausforderung 2: Software-Partitionierung

Mehr

Energiesparmechanismen des

Energiesparmechanismen des Energiesparmechanismen des Prozessors (x64) 2 Gliederung Motivation Einleitung Advanced Configuration and Power Interface (ACPI) P-States C-States Implementierung Intel AMD 3 Motivation von Marius Eschen

Mehr

Hardware-Architekturen

Hardware-Architekturen Kapitel 3 Hardware-Architekturen Hardware-Architekturen Architekturkategorien Mehrprozessorsysteme Begriffsbildungen g Verbindungsnetze Cluster, Constellation, Grid Abgrenzungen Beispiele 1 Fragestellungen

Mehr

Protected User-Level DMA in SCI Shared Memory Umgebungen

Protected User-Level DMA in SCI Shared Memory Umgebungen Protected User-Level DMA in SCI Shared Memory Umgebungen Mario Trams University of Technology Chemnitz, Chair of Computer Architecture 6. Halle Chemnitz Seminar zu Parallelverarbeitung und Programmiersprachen

Mehr

Projektseminar Parallele Programmierung

Projektseminar Parallele Programmierung HTW Dresden WS 2014/2015 Organisatorisches Praktikum, 4 SWS Do. 15:00-18:20 Uhr, Z136c, 2 Doppelstunden o.g. Termin ist als Treffpunkt zu verstehen Labore Z 136c / Z 355 sind Montag und Donnerstag 15:00-18:20

Mehr

Einfach, sicher, schnell & unkompliziert! Mieten Sie einfach Ihre komplette HotSpot-Installation

Einfach, sicher, schnell & unkompliziert! Mieten Sie einfach Ihre komplette HotSpot-Installation managed HotSpot-Lösungen Einfach, sicher, schnell & unkompliziert! Mieten Sie einfach Ihre komplette HotSpot-Installation menschen.computer.netzwerke Bottenbacher Str. 78 57223 Kreuztal Tel: +49.2732.55856-0

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

High Performance Computing

High Performance Computing REGIONALES RECHENZENTRUM ERLANGEN [ RRZE ] High Performance Computing Systemausbildung Grundlagen und Aspekte von Betriebssystemen und System-nahen Diensten Michael Meier, RRZE, 01.07.2015 Agenda Was bedeutet

Mehr

bw-grid Cluster in Mannheim

bw-grid Cluster in Mannheim bw-grid Cluster in Mannheim Dr. Heinz Kredel mit Helmut Fränznick, Rudi Müller, Steffen Hau, Andreas Baust Inhalt Grid und D-Grid BMBF Projekt bw-grid Cluster Stand: Aufbau und Inbetriebnahme Benutzung

Mehr

Xeon, Opteron, UltraSPARC höher, schneller, weiter?

Xeon, Opteron, UltraSPARC höher, schneller, weiter? Xeon, Opteron, UltraSPARC höher, schneller, weiter? best OpenSystems Day Spring 2006 Trends im CPU- und Systemdesign Unterföhring Wolfgang Stief stief@best.de Senior Systemingenieur best Systeme GmbH GUUG

Mehr

Kleine Speichersysteme ganz groß

Kleine Speichersysteme ganz groß Kleine Speichersysteme ganz groß Redundanz und Performance in Hardware RAID Systemen Wolfgang K. Bauer September 2010 Agenda Optimierung der RAID Performance Hardware-Redundanz richtig nutzen Effiziente

Mehr

Grundlagen der Rechnerarchitektur. Ein und Ausgabe

Grundlagen der Rechnerarchitektur. Ein und Ausgabe Grundlagen der Rechnerarchitektur Ein und Ausgabe Übersicht Grundbegriffe Hard Disks und Flash RAM Zugriff auf IO Geräte RAID Systeme SS 2012 Grundlagen der Rechnerarchitektur Ein und Ausgabe 2 Grundbegriffe

Mehr

Die Sandy-Bridge Architektur

Die Sandy-Bridge Architektur Fakultät Informatik - Institut für Technische Informatik - Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Die Sandy-Bridge Architektur René Arnold Dresden, 12. Juli 2011 0. Gliederung 1.

Mehr

transtec Entry Level HPC Cluster

transtec Entry Level HPC Cluster Entry Level HPC Cluster Komplettes HPC Clustersystem inklusive Installation und Lieferung Nicht genug Knoten? Fragen zu dem System? Kontaktieren Sie uns unter: 01/726 60 90 oder @.at Position 1: Rack 19"

Mehr

Agenda. HPC-Benutzerkolloquium. EM64T-Clustererweiterung. EM64T-Clustererweiterung am RRZE

Agenda. HPC-Benutzerkolloquium. EM64T-Clustererweiterung. EM64T-Clustererweiterung am RRZE Agenda HPC-Benutzerkolloquium G. Hager/T. Zeiser 25.01.2005 RRZE EM64T-Clustererweiterung Allgemeines (GH) Zukünftige Konfiguration: Queues, Policies, Betriebsmodus (GH) Verfügbare Compiler und MPI-Versionen

Mehr

The Unbreakable Database System

The Unbreakable Database System The Unbreakable Database System Real Application Cluster Unterföhring, 04.2005 M. Kühn 1 Comparisson HA - HA Ziele, DataGuard, HA Oracle, RAC RAC Features - Cache Fusion, TAF, Load Balancing RAC on Solaris

Mehr

Was ist Reference Counting Implementierung. Ende. Reference Counting. Kevin Köster. Uni Hamburg. 31. März Kevin Köster Reference Counting 1/58

Was ist Reference Counting Implementierung. Ende. Reference Counting. Kevin Köster. Uni Hamburg. 31. März Kevin Köster Reference Counting 1/58 Reference Counting Kevin Köster Uni Hamburg 31. März 2013 Kevin Köster Reference Counting 1/58 Kevin Köster Reference Counting 2/58 Beschreibung Dateisystem Praxis Frage Wann wissen wir, ob ein Objekt

Mehr

Testbericht Thomas-Krenn.AG Open-E DSS

Testbericht Thomas-Krenn.AG Open-E DSS / Systembezeichnung / Product Name Open-E DSS Chipsatz / Chipset Empfohlene CPU / Recommended CPU Intel 3210 (Bigby-V) chipset Quad-Core Intel Xeon 3200 Series processor Dual-Core Intel Xeon 3000 Series

Mehr

Intel 80x86 symmetrische Multiprozessorsysteme. Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte

Intel 80x86 symmetrische Multiprozessorsysteme. Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte Intel 80x86 symmetrische Multiprozessorsysteme Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte Gliederung I. Parallel Computing Einführung II.SMP Grundlagen III.Speicherzugriff

Mehr

( ZIH ) Zentrum für Informationsdienste und Hochleistungsrechnen. Kooperation mit Microsoft und Dell

( ZIH ) Zentrum für Informationsdienste und Hochleistungsrechnen. Kooperation mit Microsoft und Dell ( ZIH ) Zentrum für Informationsdienste und Hochleistungsrechnen Kooperation mit Microsoft und Dell Windows-HPC-Cluster von Dell Symbolische Übergabe auf der ISC 2008 Anlieferung im Juni 2008 Kooperation

Mehr

IT-Infrastruktur, WS 2014/15, Hans-Georg Eßer

IT-Infrastruktur, WS 2014/15, Hans-Georg Eßer ITIS-D'' IT-Infrastruktur WS 2014/15 Hans-Georg Eßer Dipl.-Math., Dipl.-Inform. Foliensatz D'': Rechnerstrukturen, Teil 3 v1.0, 2014/11/27 Folie D''-1 Dieser Foliensatz Vorlesungsübersicht Seminar Wiss.

Mehr

Mindestanforderungen an Systemumgebung Für die Nutzung von excellenttango

Mindestanforderungen an Systemumgebung Für die Nutzung von excellenttango Die Hardware- und Softwareanforderungen sind als allgemeine Anforderungen zu betrachten. Zahlreiche Faktoren können sich auf diese Anforderungen auswirken und müssen daher beachtet werden: Die Anzahl und

Mehr

Untersuchung und Vorstellung moderner Grafikchiparchitekturen

Untersuchung und Vorstellung moderner Grafikchiparchitekturen Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Untersuchung und Vorstellung moderner Grafikchiparchitekturen Hauptseminar Technische

Mehr

Hardware für das Internet. Lorenz Wallner

Hardware für das Internet. Lorenz Wallner Hardware für das Internet Lorenz Wallner 1 Inhalt Allgemeines zu Mainframes IBM z9 109 Prozessoren I/O Betriebssysteme Router: Cisco CRS-1 Switch Fabric Netzwerkadapter Route Processor 2 Mainframe Eigenschaften

Mehr

Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen

Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem hristian Terboven Rechen- und Kommunikationszentrum RWTH Aachen 1 Hochleistungsrechnen mit Windows enter omputing and ommunication

Mehr

Jede zweite SSD jetzt GRATIS!

Jede zweite SSD jetzt GRATIS! Better Service for your business! Sehr geehrter Kunde! Darauf hat die Welt gewartet. Jede zweite SSD jetzt GRATIS! Jetzt gibt es SSDs zu einem Preis, zu dem sich diese superschnelle Technologie auch im

Mehr

Grundlagen der Rechnerarchitektur

Grundlagen der Rechnerarchitektur Grundlagen der Rechnerarchitektur Einführung Unsere erste Amtshandlung: Wir schrauben einen Rechner auf Grundlagen der Rechnerarchitektur Einführung 2 Vorlesungsinhalte Binäre Arithmetik MIPS Assembler

Mehr

Datenblatt: TERRA PC-GAMER 6250 1.279,00. Gaming-PC mit 120GB SSD + NVIDIA GTX 970 Grafik. Zusätzliche Artikelbilder IT. MADE IN GERMANY. 14.07.

Datenblatt: TERRA PC-GAMER 6250 1.279,00. Gaming-PC mit 120GB SSD + NVIDIA GTX 970 Grafik. Zusätzliche Artikelbilder IT. MADE IN GERMANY. 14.07. Datenblatt: TERRA PC-GAMER 6250 Gaming-PC mit 120GB SSD + NVIDIA GTX 970 Grafik Das GAMING ERLEBNIS für die Freizeit. Der TERRA Gamer-PC mit Intel Core Prozessor der 4. Generation und NVIDIA GeForce GTX

Mehr

Supercomputing 2003: Nichts geht ohne Linux

Supercomputing 2003: Nichts geht ohne Linux DECUS Symposium 2003 Supercomputing 2003: Nichts geht ohne Linux presented by Roland Fehrenbacher transtec AG Decus Symposium 2003 1 THE EUROPEAN IT FACTORY Übersicht! Linux Beowulf Cluster Ein neuer Standard

Mehr

Hochleistungs-Disk-I/O

Hochleistungs-Disk-I/O Hochleistungs-Disk-I/O mit Lustre, dcache und AFS eine vergleichende Betrachtung Stephan Wiesand DESY DV 33. Treffen des ZKI AK Supercomputing Hamburg, 2010-03-04 Computing am DESY Standort Zeuthen Batch

Mehr

Felix Großkreuz Philipps-Universität Marburg Fachbereich 12 Seminar IT-Administration SS2011

Felix Großkreuz Philipps-Universität Marburg Fachbereich 12 Seminar IT-Administration SS2011 Felix Großkreuz Philipps-Universität Marburg Fachbereich 12 Seminar IT-Administration SS2011 Griff in die Geschichte Erste Festplatte, SLED, ab 1988 RAID-Level 0, 1 5, 6 Kombinationen Einrichten von RAID

Mehr

Instruktionssatz-Architektur

Instruktionssatz-Architektur Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006 Übersicht 1 Einleitung 2 Bestandteile der ISA 3 CISC / RISC Übersicht 1 Einleitung 2 Bestandteile

Mehr

Performance Tuning & Scale-Out mit MySQL

Performance Tuning & Scale-Out mit MySQL Performance Tuning & Scale-Out mit MySQL Erfa-Gruppe Internet Briefing 2. März 2010 Oli Sennhauser Senior MySQL Consultant, FromDual oli.sennhauser@fromdual.com www.fromdual.com 1 Inhalt Allgemeines zu

Mehr

AMD : Ein Preis, beliebig viele virtuelle Server?

AMD : Ein Preis, beliebig viele virtuelle Server? Die mit dem besseren Service! Sehr geehrter Kunde! Die Frage dieser Tage: Wie virtualisiere ich am effizientesten und günstigsten? Darauf gibt es eine Antwort! AMD : Ein Preis, beliebig viele virtuelle

Mehr

Datenblatt: TERRA PC-GAMER 6250 1.309,00. Zusätzliche Artikelbilder IT. MADE IN GERMANY. 28.04.2016

Datenblatt: TERRA PC-GAMER 6250 1.309,00. Zusätzliche Artikelbilder IT. MADE IN GERMANY. 28.04.2016 Datenblatt: TERRA PC-GAMER 6250 Herstellername: WORTMANNAG Artikel Nr.: 1001250 Referenznummer: 1001250 1.309,00 24MonateGarantie(Bring in) inkl. 20,00 % MwSt. Zusätzliche Artikelbilder Seite 1 von 5 Details

Mehr

Datenblatt: TERRA PC-GAMER 6250 1.379,00. Gaming-PC mit 240GB SSD + NVIDIA GTX 970 Grafik. Zusätzliche Artikelbilder IT. MADE IN GERMANY. 08.01.

Datenblatt: TERRA PC-GAMER 6250 1.379,00. Gaming-PC mit 240GB SSD + NVIDIA GTX 970 Grafik. Zusätzliche Artikelbilder IT. MADE IN GERMANY. 08.01. Datenblatt: TERRA PC-GAMER 6250 Gaming-PC mit 240GB SSD + NVIDIA GTX 970 Grafik Das pure Gaming Erlebnis. Jetzt mit Intel Syklake Plattform & DDR4 RAM. Der TERRA Gamer-PC mit Intel Core Prozessor der 6.

Mehr

Exklusive Preisliste für Nur für Sie!! Ihr exone Systemhauspartner Friedrich Ritschel GmbH & Co. KG Herr Jacobsen 05221-93760 edv@ritschelkg.

Exklusive Preisliste für Nur für Sie!! Ihr exone Systemhauspartner Friedrich Ritschel GmbH & Co. KG Herr Jacobsen 05221-93760 edv@ritschelkg. Exklusive liste für Nur für Sie!! Herr Jacobsen 0522193760 edv@ritschelkg.com exone Challenge 1111 Atom 330 exone Challenge 1211 X3430 RAID exone Challenge 1911 W3520 exone Challenge 1911 X3430 exone Challenge

Mehr

Diskless Cluster und Lustre Erfahrungsbericht zum CHiC

Diskless Cluster und Lustre Erfahrungsbericht zum CHiC Diskless Cluster und Lustre Erfahrungsbericht zum CHiC, Torsten Hoefler, Torsten Mehlan und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität

Mehr

SSDs als Cache für HDDs

SSDs als Cache für HDDs SSDs als Cache für HDDs CacheCade vs. BCache Dirk Geschke Linux User Group Erding 23. Oktober 2013 Dirk Geschke (LUG-Erding) SSD-Cache 23. Oktober 2013 1 / 71 Gliederung 1 Einleitunng 2 HDD Hard-Disk-Drive

Mehr

PVFS (Parallel Virtual File System)

PVFS (Parallel Virtual File System) Management grosser Datenmengen PVFS (Parallel Virtual File System) Thorsten Schütt thorsten.schuett@zib.de Management grosser Datenmengen p.1/?? Inhalt Einführung in verteilte Dateisysteme Architektur

Mehr

Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA)

Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA) Proseminar KVBK Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA) Arian Bär 12.07.2004 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) 2.1. Allgemeines 2.2. Architektur 3. Speicherarchitekturen

Mehr

Green IT Fraunhofer ITWM Rechenzentrum

Green IT Fraunhofer ITWM Rechenzentrum Green IT Fraunhofer ITWM Rechenzentrum PUE = 1,35 Green IT Performance Power Usage Efficiency PUE/ERE ATA Tagung 2011 Bremen, Dr. Franz-Josef Pfreundt Division Director. CIO Fraunhofer Institiut für Techno

Mehr

C C. Hochleistungsrechnen (HPC) auf dem Windows Compute Cluster des RZ der RWTH Aachen. 1 WinHPC 2006 - Einführung Center. 31.

C C. Hochleistungsrechnen (HPC) auf dem Windows Compute Cluster des RZ der RWTH Aachen. 1 WinHPC 2006 - Einführung Center. 31. Hochleistungsrechnen (HP) auf dem Windows ompute luster des RZ der RWTH Aachen 31. Mai 2006 hristian Terboven Dieter an Mey {terboven anmey}@rz.rwth-aachen.de 1 WinHP 2006 - Einführung enter SunFire V40z

Mehr

PROVIGO MICROSOFT NAS 2170M

PROVIGO MICROSOFT NAS 2170M PROVIGO MICROSOFT NAS 2170M II 2 HE Rackmount II Bis zu 8x SATA3/SAS2 3.5" hotswap HDDs/SSDs II 1x Intel Xeon E3 12XX v3 CPU II 2x Gigabit Ethernet LAN Ports Basis Spezifikationen Produkttyp Hoch performante,

Mehr

Titelmasterformat durch Klicken bearbeiten

Titelmasterformat durch Klicken bearbeiten Titelmasterformat durch Klicken Titelmasterformat durch Klicken Huawei Enterprise Server Systeme Global Player auf dem Server- und Storagemarkt Scale up Übersicht Titelmasterformat durch Klicken Textmasterformat

Mehr

IBM RS/6000 SP

IBM RS/6000 SP Chronik des Zentralen Informatikdienstes der TU Wien Mainframes, Fachbereichsrechner und Applikationsserver IBM RS/6000 SP 9070-550 EDV-Zentrum Applikationsserver Freie Programmierung April 2001 Hardware:

Mehr

Datenblatt: TERRA PC-GAMER 6100 1.129,00. Gaming-PC mit 240GB SSD + AMD R9 Grafik. Zusätzliche Artikelbilder IT. MADE IN GERMANY. 25.06.

Datenblatt: TERRA PC-GAMER 6100 1.129,00. Gaming-PC mit 240GB SSD + AMD R9 Grafik. Zusätzliche Artikelbilder IT. MADE IN GERMANY. 25.06. Datenblatt: TERRA PC-GAMER 6100 Gaming-PC mit 240GB SSD + AMD R9 Grafik Herstellername: WORTMANNAG Artikel Nr.: 1001252 Referenznummer: 1001252 1.129,00 24MonateVor Ort Serviceinkl.Medieneinbehalt inkl.

Mehr

MATRIX FÜR HITACHI VIRTUAL STORAGE PLATFORM-PRODUKTFAMILIE

MATRIX FÜR HITACHI VIRTUAL STORAGE PLATFORM-PRODUKTFAMILIE MATRIX FÜR HITACHI VIRTUAL STORAGE PLATFORM-PRODUKTFAMILIE 1 Technische Daten zur Kapazität Maximale (max.) Anzahl Laufwerke, einschließlich Reserve 264 SFF 264 LFF 480 SFF 480 LFF 720 SFF 720 LFF 1.440

Mehr

Hyperthreads in Itanium - Prozessoren

Hyperthreads in Itanium - Prozessoren Hyperthreads in Itanium - Prozessoren und wie OpenVMS damit umgeht Thilo Lauer Technical Consultant Account Support Center 2006 Hewlett-Packard Development Company, L.P. The information contained herein

Mehr

RAC auf Sun Cluster 3.0

RAC auf Sun Cluster 3.0 RAC auf Sun Cluster 3.0 Schlüsselworte RAC, OPS, Sun Cluster, Performance, Availability Zusammenfassung Oracle hat mit dem Real Application Cluster (RAC) aus einer Hochverfügbarkeitslösung eine Höchstverfügbarkeitslösung

Mehr

Einige Grundlagen zu OpenMP

Einige Grundlagen zu OpenMP Einige Grundlagen zu OpenMP Stephanie Friedhoff, Martin Lanser Mathematisches Institut Universität zu Köln 22. Juni 2016 Überblick Was ist OpenMP? Basics Das OpenMP fork-join-modell Kompilieren und Ausführen

Mehr

Einsatz von GPFS an der JGU

Einsatz von GPFS an der JGU Einsatz von GPFS an der JGU HPC@JGU Markus Tacke Leiter HPC ZDV Johannes Gutenberg-Universität Mainz Was Kommt? Umfeld JGU Historie HPC@JGU und seine Daten Aufgabe ATLAS I/O Lösung GPFS!! Ergebnisse.(wird

Mehr

OpenCL. OpenCL. Boris Totev, Cornelius Knap

OpenCL. OpenCL. Boris Totev, Cornelius Knap OpenCL OpenCL 1 OpenCL Gliederung Entstehungsgeschichte von OpenCL Was, warum und überhaupt wieso OpenCL CUDA, OpenGL und OpenCL GPUs OpenCL Objekte Work-Units OpenCL Adressbereiche OpenCL API Codebeispiel

Mehr

GPGPU-Architekturen CUDA Programmiermodell Beispielprogramm. Einführung CUDA. Ralf Seidler. Friedrich-Alexander-Universität Erlangen-Nürnberg

GPGPU-Architekturen CUDA Programmiermodell Beispielprogramm. Einführung CUDA. Ralf Seidler. Friedrich-Alexander-Universität Erlangen-Nürnberg Einführung CUDA Friedrich-Alexander-Universität Erlangen-Nürnberg PrakParRA, 18.11.2010 Outline 1 GPGPU-Architekturen 2 CUDA Programmiermodell 3 Beispielprogramm Outlook 1 GPGPU-Architekturen 2 CUDA Programmiermodell

Mehr

NEC SX-ACE HPC-System

NEC SX-ACE HPC-System Erste Erfahrungen mit dem neuen System Dr. Simone Knief; ZKI-Arbeitskreis Supercomputing, Kiel 17.03.2015 1 Überblick Rechnerkonfiguration Veränderungen SX-9 zu SX-ACE Benutzergruppen Erste Performanceergebnisse

Mehr

Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de

Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften Agenda Einleitung Vor- und Nachteile der Virtualisierung Virtualisierungssoftware

Mehr

Datenblatt: TERRA PC-GAMER 6250 1.369,00. Gaming-PC mit 240GB SSD + NVIDIA GTX 970 Grafik. Zusätzliche Artikelbilder IT. MADE IN GERMANY. 13.09.

Datenblatt: TERRA PC-GAMER 6250 1.369,00. Gaming-PC mit 240GB SSD + NVIDIA GTX 970 Grafik. Zusätzliche Artikelbilder IT. MADE IN GERMANY. 13.09. Datenblatt: TERRA PC-GAMER 6250 Gaming-PC mit 240GB SSD + NVIDIA GTX 970 Grafik Jetzt mit dem neuen Windows 10: Das GAMING Erlebnis für die Freizeit. Der TERRA Gamer-PC mit Intel Core Prozessor der 4.

Mehr

Virtualisierung Phase II: Die Verschmelzung von Server & Netzwerk

Virtualisierung Phase II: Die Verschmelzung von Server & Netzwerk Virtualisierung Phase II: Die Verschmelzung von Server & Netzwerk Rudolf Neumüller System x / BladeCenter / Storage Rudi_neumueller@at.ibm.com Phone: +43 1 21145 7284 Geschichte der Virtualisierung Ende

Mehr

Staff. Tim Conrad. Zeitplan. Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2013. Tim Conrad

Staff. Tim Conrad. Zeitplan. Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2013. Tim Conrad Blockseminar: Verteiltes Rechnen und Parallelprogrammierung Sommer Semester 2013 Tim Conrad Staff Tim Conrad AG Computational Proteomics email: conrad@math.fu-berlin.de Telefon: 838-51445 Büro: Raum 138,

Mehr

Arbeitsfolien - Teil 4 CISC und RISC

Arbeitsfolien - Teil 4 CISC und RISC Vorlesung Informationstechnische Systeme zur Signal- und Wissensverarbeitung PD Dr.-Ing. Gerhard Staude Arbeitsfolien - Teil 4 CISC und RISC Institut für Informationstechnik Fakultät für Elektrotechnik

Mehr