Enterprise Computing
|
|
- Lilli Acker
- vor 7 Jahren
- Abrufe
Transkript
1 Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth WS 2011/12 Teil 5 Parallel Rechner Implementierungen
2 Mehrfachrechner (Multiprocessor) Parallelrecher (Parallel Processor) Mehrfachrechner: Auf mehreren CPUs laufen mehrere Prozesse (Threads) gleichzeitig. Parallelrechner: Auf mehreren CPUs läuft ein einziger Prozess. Die Unterschiede zwischen Mehrfachrechnern und Parallelrechnern sind fließend. Meistens können Rechner mit mehreren CPUs sowohl als Mehrfachrechner als auch als Parallelrechner eingesetzt werden. zseries und S/390 Rechner sind für den Einsatz als Mehrfachrechner optimiert. IBM AIX, HP Superdome, SUN Sunfire25k bzw M9000, sowie Blade Server werden häufig auch als Parallelrechner eingesetzt.
3 Symmetrischer Multi- CPU CPU CPU prozessor (SMP) tightly coupled Hauptspeicher Haupt- Haupt- Hauptspeicher speicher speicher Cluster loosely coupled CPU CPU CPU Taxonomie von Mehrfach/Parallelrechnern
4 8 Eingänge 8 Ausgänge 8 x 8 Crossbar Switch 8 parallele Verbindungen
5 CPU CPU CPU CPU System Bus Single SMP Hauptspeich Knoten Knoten Knoten Knoten Hochgeschwindigkeitsnetzwerk Knoten (LPAR) Jeder Knoten ist ein SMP. Er besteht aus mehreren CPUs, die auf einen gemeinsamen Hauptspeicher mit einer einzigen Instanz des Betriebssystems zugreifen. Die Knoten sind über ein Hochgeschwindigkeitsnetzwerk miteinander verbunden, das in der Regel als Crossbar Switch implementiert wird. Unter z/os sind Knoten häufig als LPARs (Logische Partitionen) implementiert. Cluster, bestehend aus mehreren SMPs (Knoten)
6 Haupt- Haupt- Hauptspeicher speicher speicher Knoten Knoten Knoten Knoten CPU CPU CPU Globalspeicher Global- Speicher Ein Cluster, bei dem die Knoten aus einzelnen CPUs oder aus SMPs bestehen, kann durch einen globalen Speicher erweitert werden. Diese Konfiguration wird als closely coupled bezeichnet. Der Mainframe Sysplex ist eine derartige Konfiguration. Frage: Warum kann mann nicht einen SMP mit 64 oder mehr Prozessoren bauen? Antwort: Ein z196 EC Rechner kann tatsächlich einen SMP mit bis zu 80 CPUs betreiben. Aber...
7 Relative Performance Number of CPUs Skalierung eines Symmetrischen Multiprozessors 1. Hardware Konflikte. Wenn zwei CPUs gleichzeitig auf den Hauptspeicher zugreifen, muss eine CPU warten. 2. Software Konflikte (meistens Betriebssystem/Kernel). Wenn zwei CPUs gleichzeitig auf Komponenten des Kernels (z.b. Scheduler/Dispatcher) zugreifen, muss eine CPU warten. Unglücklicherweise sind Transaktions- und Datenbankanwendungen besonders kritisch. Gleichzeitig sind dies die wichtigsten Aufgaben in einer betrieblichen IT-Infrastruktur.
8 Kommerzielle Großrechner Message Passing Parallel Rechner
9 Sun E System Board
10 4 CPU chips CPU CPU CPU CPU 2/4 Core Sun 25 K I/O Hauptspeicher Switch Zentraler Switch 16 oder 18 System Boards, jedes mit 4 CPU Chips Anschluss an einen zentralen Switch sowie I/O Controller auf jedem System Board. I/O Cages Anschluss von I/O Geräten, besonders Plattenspeichern, Non-Uniform Memory Architecture (NUMA System Boards I/O Board
11 Steckplätze auf einem Crossbar Board für 16 oder 18 System Boards. 16 x 16 Daten Crossbar Chip, 16 x 16 Response Crossbar Chip, 16 x 16 Adressen Crossbar Chip. I/O Karten in den I/O Cages sind über diese Switche mit den System Boards verbunden. Das Crossbar Board enthält eine Reihe von (elektronischen) Schaltern. System Bards in mehrere Gruppen aufteilen und die Gruppen voneinander isolieren. Harte Partitionnierung
12 Die Firma Sun hat ihre Produkte kontinuierlich weiterentwickelt ohne dass sich am Konzept viel verändert hat. Die neuesten Modelle werden als M9000 bezeichnet, und gemeinsam von Sun und von Fujitsu/Siemens vertrieben.
13 Sun SPARC Enterprise M9000 server Backplane Interconnect mit 368 GByte/second, Verbindet alle System Boards miteinander
14 Hewlett- Packard Superdome Cell Board 4 Itanium 2 CPUs 64 Gbyte E/A Bus 1,5 GHz Hauptspeicher Anschlüsse
15 CPU CPU CPU CPU I/O Hauptspeicher Switch 4 Switches 16 Gbyte/s Switch 256 CPU s, 16 Knoten (Cell Boards), je 16 CPU/Knoten I/O Anschluß auf jedem Cell Board Cell Boards 4 fach SMP HP Superdome Cluster
16
17 Internal Batteries Hybrid Cooling Power Supplies 3x I/O cages CEC Cage Fibre Quick Connect Feature Front View STI Cable Support Elements
18 SMP CPUs System Board lokaler Bus/Switch Hauptspeicher Zugriff auf den Hauptspeicher eines anderen Systemboards I/O Adapter globaler Bus/Switch NUMA Rechner mit zwei Ebenen von Switches Non-Uniform Memory Architektur Auf jedem System- oder Cellboard ist der lokale Hauptspeicher an die CPUs über einen lokalen Bus angeschlossen. Zusätzlich sind alle System- oder Cellboards über einen zentralen Switch (hier als System Bus dargestellt) miteinander verbunden. Es ist möglich, dass eine CPU über den globalen Bus/Switch auf den Hauptspeicher eines fremden SMP zugreift.
19 FFFF FFFF C Adressen. raum des vierten SMP Adressen. raum des dritten SMP Adressen. raum des zweiten SMP Adressen. raum des ersten SMP NUMA Adressenraum Dargestellt ist als Beispiel der Adressenraum eines NUMA Rechners mit 4 System Boards. Jedes System Board verfügt über einen Hauptspeicher von 4 GByte. Der erste der 4 System Boards benutzt die Adressen Hex bis 3FFF FFFF. Der zeite der 4 System Boards benutzt die Adressen Hex bis 7FFF FFFF. Der dritte der 4 System Boards benutzt die Adressen Hex bis BFFF FFFF. Der vierte der 4 System Boards benutzt die Adressen Hex C bis FFFF FFFF.
20 NUMA-Rechner Der Zugriff auf den Speicher und das I/O-Subsystem erfolgen nicht gleichförmig. Diese Architekturen werden als Non Uniform Memory Access (NUMA) Architektur bezeichnet. Da jeder Prozessor auf die Speicher fremder System Boards zugreift, muss ein Verfahren für den Zugriff auf nicht-lokale Speicher existieren. Dies ist durch die Dir-Einheit (Directory) dargestellt. Diese enthälten Informationen über alle auf den externen System Boards befindlichen Speichersegmente und deren Inhalte. Beim CC-NUMA (Cache Coherent NUMA) erfolgt bei einer Speicherveränderung eine Invalidierung aller Einträge in den Directories der nicht-lokalen System Boards.
21 z10 configuration of the L2 NUMA cache A maximum z10 system can have a total of 77 processing units (PU) in 4 books. Of these, 64 may be configured as CPUs. 3 of the 4 books may have 20 PUs each, the 4 th book has 17 PUs. The four L2 caches of the four books are interconnected by point-to-point links and form a single common and shared CC-NUMA L2 cache that is used by the 77 PUs in all four books.
22 Relative Performance Number of CPUs Skalierung eines Symmetrischen Multiprozessors Ein Rechner mit CPUs muss in mehrere SMPs partitioniert werden. Harte Partitionen Virtuelle Partitionen
23 64 bis 256 CPUs NUMA Hauptspeicher Aufteilung eines Großrechners in mehrere SMPs z/os unterstützt symmetrische Multiprozessoren (SMP) mit bis zu CPUs. Bei Unix, Linux und Windows Betriebs-systemen liegt die Grenze für Transaktions- und Datenbankanwendungen eher bei CPUs. Moderne Großrechner (Systeme) verfügen über wesentlich mehr CPUs. Sie werden deshalb in mehrere SMPs (mit unterschiedlicher Anzahl von CPUs) aufgeteilt, die über einen zentralen Switch miteinander kommunizieren. Der Systemadministrator kann den gesamten Hauptspeicher in unterschiedlichen Größen auf die einzelnen SMPs aufteilen.
24 Harte Partitionierung Die Aufteilung der einzelnen CPUs erfolgt durch elektronische Schalter. Der Systemadministrator kann die Aufteilung während des laufenden Betriebes ändern.
25 SMP # 1 SMP # 2 SMP # 3 3 System Boards 2 System Boards 3 System Boards 12 CPU Chips 8 CPU Chips 12 CPU Chips Switch Aufteilung eines Sun 25K oder HP Superdome Servers mit 8 System Boards in mehrere parallel laufende SMPs Harte Partitionierung, 8 System Boards mit je 4 CPU Chips (single core) pro System Board. Die 8 System Boards werden in 3 Partitionen und 3 SMPS mit 3, 2 und 3 System Boards aufgeteilt. Jeder SMP hat ein eigenes Betriebssystem. Die Aufteilung erfolgt mit Hilfe elektronischer Schalter. Der System Administrator kann während des laufenden Betriebes die Zuordnung der System Boards zu den einzelnen SMPs ändern
26 CPUs Dargestellt sind 8 System Boards SB0.. SB7. Sie werden in 3 SMPs partitioniert: SMP1 besteht aus: SMP2 besteht aus: SMP3 besteht aus: SB0, SB1, SB6 SP2, SB4 SP3, SB5, SB7 Angenommen, SMP2 ist überlastet, während SMP3 überschüssige Kapazität hat. Der Administrator beschließt, SMP3 das System Board SB5 wegzunehmen und SMP2 zuzuordnen. Auf der dargestellten Konsole klick der Administrator auf das SB5 Ikon und zieht es rüber auf den SB2 Icon. Sun Fire Administrator Konsole Die Granularität der Zuordnung auf die einelnen SMPs (Partitionen) war ursprünglich in Einheiten vonein ganzen System Boards, ist aber bei neueren Systemen verfeinert worden.
27 Virtuelle Partitionierung Andere Bezeichnung: Logische Partitionierung Die Virtuelle Partitionierung mit Software ist in der Regel flexibler als die Hardware- Partitionierung. Allerdings ist durch den Einsatz von Software der Overhead größer, der für die Steuerung der Umgebung benötigt wird. Beispiele: z/vm, VMware, Xen, Virtual Box,... Die Virtuelle Partitionierung mit Hilfe von Software wird häufig auch als Logische Partitionierung oder als Virtualisierung bezeichnet. Vorteil: Flexibilität Nachteil: Performance Verlust
28 Coupling Facility SMP SMP SMP SMP SMP SMP 32 max. 800 MByte/s Sysplex FICON / Fibrechannel Timer Protokoll (ESCON) FICON / Switch FICON andere I/O Switch 800 MByte/s Glasfaser Pro System (SMP) : 80 CPU s + 14 Support Prozessoren 4 x 256 Kanäle (z196 Rechner) CU CU CU CU Enterprise Storage Server Parallel Sysplex
29
30 Kommerzielle Großrechner Message Passing Parallel Rechner
31 Leere Einschübe für zwei 2,5"-SCSI- Festplatten Prozessor Chip mit Kühlkörper Erweiterungsplatz für einen zweiten Prozessor IBM Blade for Intel-, PowerPC- und Cell
32 IBM BladeCenter
33 Strato-Rechenzentrum mit Servern verbraucht sechs Megawatt ,
34 HP ProLiant BladeSystem Unterstützt bis zu 16 voll ausgestattete Blade-Server. Bis zu 4 redundante I/O-Fabrics. Integrierte Verwaltung für einfache und unkomplizierte Einrichtung. Optionales zweites Modul für uneingeschränkte Redundanz.
35 Google Nov Daily Visitors to google.com 620 Millionen Daily Page views 7,2 Milliarden Data daily processed by Google 20 PByte Mitarbeiter, davon in R&D
36 Message Passing Homogeneous CPUs, can leverage existingcpu designs and development tolls. Hardware focusses on communication (2-D Mesh, N-Cube). SW focusses on partittioning of data and algorithms of a single process.
37 BlueGene System at Argonne National Laboratory
38 Blue Gene/Q 18 core chip, uses 16 cores for computing, and one core for running an operating system (interrupts, asynchronous I/O, MPI pacing and RAS functionality). Four threads/core. Transactional memory technology, prevents data from being corrupted by multiple threads when simultaneously reading or writing a particular item. More transparent way to the application than traditional locking
39 BlueGene/Q mit 17 Kernen Die wohl wichtigste Neuerscheinung im HPC-Prozessorbereich dürfte IBMs neuer BlueGene/Q-Prozessor sein, der in rund zwei Jahren den vom US-Verteidigungsministerium bei IBM in Auftrag gegebenen 20-PFlops-Rechner Sequoia antreiben soll. BlueGene/Q ist ein 17-Kern-Prozessor, hergestellt im 45-nm-Prozess. 16 Kerne sind zum Rechnen gedacht, der 17. soll Kontroll- oder I/O-Aufgaben übernehmen. Intern ist BlueGene/Q sogar ein 18-Kerner mit einem Reservekern nützlich, um die Ausbeute bei der Herstellung zu erhöhen. Gegenüber seinen BlueGene-Vorgängern wurde die Q-Version zudem auf 64 Bit aufgerüstet und die SIMD-Einheit verbreitert, so dass sie nun vier doppeltgenaue Fused-Multiply-Add-Befehle mit 8 Flops pro Takt ausführen kann. Bei 1,6 GHz Takt kommt der Prozessor somit auf 205 GFlops. Zusätzlich arbeitet der Prozessor mit Vierfach-SMT, bietet also dem Betriebsystemen (RHEL6 auf den I/O-Knoten, spezielles Compute-OS auf den Rechenknoten) 32 "logische" Kerne oder Threads an Dank 64 Bit können die Module 8 oder 16 GByte DDR3-Speicher betreiben. Fünf Links (2 GByte/s pro Richtung) gehen von jedem Modul zu den Nachbarn, womit sich verschiedene 5D-Topologien aufbauen lassen. 32 Module mit 512 Rechenkernen sind in einer Schublade zu einem Knoten zusammengefasst, inklusive Crossbar Switch, Links zu den Nachbarknoten und Anschlüssen für die Wasserkühlung. Spezielle Schubladen sind für I/O vorgesehen mit jeweils einem BlueGene/Q-Modul als I/O-Knoten und wahlweise InfiniBand QDR oder 10Gb-Ethernet via PCIe 2.0. Die Schubladen kann man von beiden Seiten in die Racks einschieben, 16 Stück auf jeder Seite, sodass ein Rack auf Rechenkerne und mithin 209 TFlops kommt. Ein halbes Rack hat jetzt schon mal seine Leistungsfähigkeit beim Linpack-Benchmark unter Beweis gestellt. Ein Testsystem des "Thomas J. Watson Research Center" kam mit 8192 Kernen auf 65,3 TFlops. Mit dem Verbrauch von nur 38,8 kw markierte es einen neuen Rekordwert in der Energieeffizienz von knapp 1700 MFlops/Watt. Für Sequoia am Lawrence Livermore National Laboratory sind 96 vollbestückte Racks vorgesehen, die dann Ende 2012 über 20 PFlops an theoretischer Spitzenleistung erzielen sollen. Eine etwas kleinere Version mit etwa halb so vielen Racks und für wissenschaftliche Aufgaben gedacht, soll am Argonne National Laboratory aufgestellt werden. (as)
Enterprise Computing
Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth WS 2010/11 Teil 5 Parallel Rechner Implementierungen Mehrfachrechner (Multiprocessor) Parallelrecher (Parallel Processor) Mehrfachrechner: Auf mehreren
MehrEnterprise Computing
Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth Teil 6 Partitionierung NUMA Sharing Disk Storage HP Superdome Cell Board 4 Itanium 2 CPU Chips 32 128 Gbyte I/O Bus mit Kühlern Hauptspeicher Anschlüsse
MehrUNIVERSITÄT LEIPZIG. Mainframe Internet Integration SS2013. Virtualisierung Teil 3. Logische Partitionen
UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013 Virtualisierung Teil 3 Logische Partitionen el0100 copyright W. G. Spruth, wgs 04-11 Firmware
MehrUNIVERSITÄT LEIPZIG. Mainframe Internet Integration SS2013. Virtualisierung Teil 1. Partitionierung
UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013 Virtualisierung Teil 1 Partitionierung el0100 copyright W. G. Spruth, wgs 04-11 Skalierung
MehrMainframe Internet Integration. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013. Sysplex Teil 1. Mehrfachrechner
UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013 Sysplex Teil 1 Mehrfachrechner copyright Abteilung Technische Informatik, Universität
MehrEinführung in z/os und OS/390
Einführung in z/os und OS/390 Dr. rer. nat. Paul Herrmannn Prof. Dr.-Ing. Wilhelm G. Spruth WS 2006/2007 Teil 5 Parallelrechner es 0101 ww6 wgs 09-99 Symmetrisch. Multi- CPU CPU CPU prozessor (SMP) tightly
MehrEinführung in z/os Prof. Dr.- Martin Bogdan Dr. rer. nat. Paul Herrmannn Prof. Dr.-Ing. Wilhelm G. Spruth WS 2008/2009 Teil 5 Parallelrechner, I/O
Einführung in z/os Prof. Dr.- Martin Bogdan Dr. rer. nat. Paul Herrmannn Prof. Dr.-Ing. Wilhelm G. Spruth WS 2008/2009 Teil 5 Parallelrechner, I/O es 0101 ww6 wgs 09-99 Symmetrisch. Multi- CPU CPU CPU
MehrEnterprise Computing Einführung in das Betriebssystem z/os
Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Dr. rer. nat. Paul Herrmannn Prof. Dr.-Ing. Wilhelm G. Spruth WS 2009/2010 Teil 7 Parallel Rechner Implementierungen es
MehrInternet Anwendungen unter OS/390
Internet Anwendungen unter OS/390 Dr. rer. nat. Paul Herrmannn Prof. Dr.rer.nat. Udo Kebschull Prof. Dr.-Ing. Wilhelm G. Spruth WS 2004/2005 Teil 2 zseries Ein-/Ausgabe es 0301 ww6 wgs 09-99 Ein/Ausgabe
MehrClient/Server-Systeme
Client/Server-Systeme Prof. Dr.-Ing. Wilhelm Spruth WS 2006/2007 Teil 11 Parallelrechner Sysplex Coupling Facility cs 0800 ww6 sch 02-97 Rechner Plattformen der Zukunft In der Zukunft werden 4 Plattform-Typen
Mehr2 Rechnerarchitekturen
2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf
MehrMehrprozessorarchitekturen
Mehrprozessorarchitekturen (SMP, UMA/NUMA, Cluster) Arian Bär 12.07.2004 12.07.2004 Arian Bär 1 Gliederung 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) Allgemeines Architektur 3. Speicherarchitekturen
MehrSAFE HARBOR STATEMENT
SAFE HARBOR STATEMENT The following is intended to outline our general product direction. It is intended for information purposes only, and may not be incorporated into any contract. It is not a commitment
MehrEnterprise Computing
Enterprise Computing WS 2010/11 Prof. Dr.-Ing. Wilhelm G. Spruth Teil 2 Mainframe Hardware Hardware für betriebswirtschaftliche Großrechner Die meisten Implementierungen von betriebswirtschaftlichen Großrechnern
MehrNeue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP)
Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP) @wefinet Werner Fischer, Thomas-Krenn.AG Webinar, 17. Oktober 2017 Intel Xeon Scalable Performance _ Das ist NEU: Neue
MehrClient/Server-Systeme
Client/Server-Systeme Prof. Dr.-Ing. Wilhelm Spruth WS 2008/2009 Teil 11 Parallelrechner Sysplex Coupling Facility Symmetrischer Multiprozessor (SMP) CPU CPU CPU tightly coupled Hauptspeicher Cluster loosely
MehrDas HLRN-System. Peter Endebrock, RRZN Hannover
Das HLRN-System Peter Endebrock, RRZN Hannover vorweg (1) Heute Vorträge im Dreierpack: Peter Endebrock: Das HLRN-System Gerd Brand: MPI Simone Knief: OpenMP Peter Endebrock, RRZN Hannover, Kolloquium,
MehrDer neue Hessische Hochleistungsrechner HHLR
Der neue Hessische Hochleistungsrechner HHLR Erste Erfahrungen Norbert Conrad, conrad@hrz.tu-darmstadt.de ZKIHessen 26.8.2002 1 Darmstädter Hochleistungsrechner 1987: IBM 3090 VF ( 2 x 0,12 GFLOPS Vektor
MehrDOAG Konferenz 2007 in Nürnberg
DOAG Konferenz 2007 in Nürnberg Auswahl und Sizing: Die richtige Hardware (+Software) für Oracle Björn Bröhl Projektmanager Handlungsbevollmächtigter Seite 1 Inhalt Die Zielsetzung Vorgehensweise Auswahl
MehrDistributed Memory Computer (DMC)
Distributed Memory Computer (DMC) verteilter Speicher: jeder Prozessor kann nur auf seinen lokalen Speicher zugreifen Kopplung mehrerer Prozessoren über E/A-Schnittstellen und Verbindungsnetzwerk, nicht
MehrTSM 5.2 Experiences Lothar Wollschläger Zentralinstitut für Angewandte Mathematik Forschungszentrum Jülich
TSM 5.2 Experiences Lothar Wollschläger Zentralinstitut für Angewandte Mathematik Forschungszentrum Jülich L.Wollschlaeger@fz-juelich.de Contents TSM Test Configuration Supercomputer Data Management TSM-HSM
MehrOracle Real Application Cluster
Oracle Real Application Cluster Björn Bröhl OPITZ CONSULTING Gummersbach GmbH Seite 1 Übersicht Die RAC Architektur RAC Komponenten (Hard- und Software) Oracle Cluster Filesystem vs. Oracle Automatic Storage
MehrDie Architektur des Sun UltraSPARC T2 Prozessors, Anwendungsszenarien
Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur, Prof. Spallek Die Architektur des Sun UltraSPARC T2 Prozessors, Anwendungsszenarien Tobias Berndt, to.berndt@t-online.de
MehrCell and Larrabee Microarchitecture
Cell and Larrabee Microarchitecture Benjamin Grund Dominik Wolfert Universität Erlangen-Nürnberg 1 Übersicht Einleitung Herkömmliche Prozessorarchitekturen Motivation für Entwicklung neuer Architekturen
MehrHardware für das Internet. Lorenz Wallner
Hardware für das Internet Lorenz Wallner 1 Inhalt Allgemeines zu Mainframes IBM z9 109 Prozessoren I/O Betriebssysteme Router: Cisco CRS-1 Switch Fabric Netzwerkadapter Route Processor 2 Mainframe Eigenschaften
MehrOracle Database Appliance und Virtualisierung: OVM oder KVM?
Oracle Database Appliance und Virtualisierung: OVM oder KVM? Dierk Lenz DOAG Day Datenbank in virtualisierten Umgebungen Hannover 7. März 2018 Herrmann & Lenz Services GmbH Herrmann & Lenz Solutions GmbH
MehrEnterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13
UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13 Verarbeitungsgrundlagen Teil 2 Virtual Storage el0100 copyright
MehrVorlesung: Virtualisierung und Rechenzentrumsinfrastrukturen. Lars Göbel & Christian Müller VL04: Einführung in die Virtualisierung
Vorlesung: Lars Göbel & Christian Müller VL04: Einführung in die Virtualisierung Themenüberblick Virtualisierung VL 02: Einführung in die Virtualisierung (heute) VL 06: VL 08: XaaS VL 09: PaaS + SaaS VL
MehrOpteron und I/O. Toni Schmidbauer. 11. Mai Zusammenfassung. Eine kurze Beschreibung der AMD Opteron Architektur.
Opteron und I/O Toni Schmidbauer 11. Mai 2005 Zusammenfassung Eine kurze Beschreibung der AMD Opteron Architektur Inhaltsverzeichnis 1 Allgemeines 2 2 Was ist ein Interconnect? 2 3 Traditionelles PC Chipset
MehrCell Broadband Engine
Cell Broadband Engine 21.March 2006 Benjamin Keck Outline Why Cell?!? Application Areas Architectural Overview SPU Programming Model Programming on the PPE C/C++ Intrinsics The Cell Supercomputer on a
MehrEinführung in z/os und OS/390
Einführung in z/os und OS/390 Web-Services und Internet-Anwendungen für Mainframes von Paul Herrmann Wilhelm Gustav Spruth 3., verbesserte und erweiterte Auflage Oldenbourg Verlag München Vorwort VII 1
MehrEnterprise Computing
Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth WS 2010/11 Teil 6 Virtualization copyright W. G. Spruth, wgs 09-2010 Google Nov. 2010 Daily Visitors to google.com 620 Millionen Daily Page views 7,2
MehrTechnische Grundlagen der Informatik 2 SS Einleitung. R. Hoffmann FG Rechnerarchitektur Technische Universität Darmstadt E-1
E-1 Technische Grundlagen der Informatik 2 SS 2009 Einleitung R. Hoffmann FG Rechnerarchitektur Technische Universität Darmstadt Lernziel E-2 Verstehen lernen, wie ein Rechner auf der Mikroarchitektur-Ebene
MehrClient/Server-Systeme
Client/Server-Systeme Prof. Dr.-Ing. Wilhelm Spruth SS 2005 Teil 13 Virtuelle Maschinen, Partitionierung cs 0800 ww6 sch 02-97 Partitionierung Virtuelle Maschinen Literatur: Joachim von Buttlar, Wilhelm
MehrUNIVERSITÄT LEIPZIG. Mainframe Internet Integration SS2013. Virtualisierung Teil 4. Intelligent Resource Director
UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013 Virtualisierung Teil 4 Intelligent Resource Director el0100 copyright W. G. Spruth, wgs
MehrSysteme 1: Architektur
slide 1 Vorlesung Systeme 1: Architektur Prof. Dr. Ulrich Ultes-Nitsche Forschungsgruppe Departement für Informatik Universität Freiburg slide 2 Prüfung 18. Februar 2004 8h00-11h40 13h00-18h20 20 Minuten
MehrIBM Rechenzentrum Boeblingen. Hardware Entwicklung
IBM Rechenzentrum Boeblingen Hardware Entwicklung Data center Backup +USV im UG Mirror Kühlung Schritte in der Hardware Entwicklung Architecture and High Level Design Logic Design and Verification Circuit
MehrAusblick auf den HLRN III - die neue HPC Ressource für Norddeutschland
Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 14. März 2013
MehrOutline. Cell Broadband Engine. Application Areas. The Cell
Outline 21.March 2006 Benjamin Keck Why Cell?!? Application Areas Architectural Overview Programming Model Programming on the PPE C/C++ Intrinsics 1 2 The Cell Supercomputer on a chip Multi-Core Microprocessor
MehrCHARON-AXP Alpha Hardwarevirtualisierung
Alpha virtualisierung Nutzung von Softwareinvestitionen auf neuer plattform Jörg Streit, Reinhard Galler Inhalt: Alpha überblick Wozu Alpha? Prinzip der Produkte Performance Cluster Support Zusammenfassung
MehrMainframe Internet Integration. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013. Parallel Sysplex Teil 4. Cache und Listen Strukturen
UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013 Parallel Sysplex Teil 4 Cache und Listen Strukturen copyright Abteilung Technische Informatik,
MehrHP ConvergedSystem Technischer Teil
HP ConvergedSystem Technischer Teil Rechter Aussenverteidiger: Patrick Buser p.buser@smartit.ch Consultant, SmartIT Services AG Linker Aussenverteidiger: Massimo Sallustio massimo.sallustio@hp.com Senior
MehrHochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner. Dr. Andreas Wolf. Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum
Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Überblick Randbedingungen der HPC Beschaffung an der
MehrCLAIX Vorstellung und Technik Christian Terboven
CLAIX Vorstellung und Technik Christian Terboven Inhalte CLAIX Phase I Zwei Rack-Reihen + 2 Schränke Testbetrieb mit Projekten seit November 2016 Trier-2 HPC-System Abnahme im Januar 2017 TOP500 im November
MehrEnterprise Computing
Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth Teil 8 Logische Partitionen LPAR IRD Bei der logischen Partitionierung geben Experten ihr (zseries) einen zehnjährigen Entwicklungs-Vorsprung Computer
MehrEnterprise Computing Einführung in das Betriebssystem z/os
Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Dr. rer. nat. Paul Herrmannn Prof. Dr.-Ing. Wilhelm G. Spruth WS 2009/2010 Teil 10 Partitionierung und Virtualisierung
MehrSeminar: Multi-Core Architectures and Programming
Seminar: Multi-Core Architectures and Programming Parallelisierung des Viola-Jones Algorithmus auf Tilera Hardware-Software-Co-Design Universität Erlangen-Nürnberg 1 Übersicht Einleitung Erste Versuche
MehrNeues in Hyper-V Version 2
Michael Korp Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/mkorp Neues in Hyper-V Version 2 - Virtualisieren auf die moderne Art - Windows Server 2008 R2 Hyper-V Robust Basis:
MehrFreiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel
Freiberuflicher Schwerpunkte: Unix, Oracle, Netzwerk 2005 1 Testaufbauten von Oracle 10g RAC auf preiswerter Hardware 2 3 Typisches Cluster System Clients Public Network Node A Node B Cluster Interconnect
Mehrbest Systeme GmbH Michael Beeck Geschäftsführer, CTO Michael.Beeck@best.de best Systeme GmbH
best Systeme GmbH Michael Beeck Geschäftsführer, CTO Michael.Beeck@best.de best Systeme GmbH Münchner Str. 123a 85774 Unterföhring Tel: 089/950 60 80 Fax: 089/950 60 70 Web: www.best.de best Systeme GmbH
MehrEnterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS 2012/13
UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS 2012/13 System z/hardware Teil 3 Book und System Frame el0100
MehrUNIVERSITÄT LEIPZIG. Mainframe Internet Integration SS2012. zbx Teil 3. zbx Einführung. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G.
UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2012 zbx Teil 3 zbx Einführung el0100 copyright W. G. Spruth, wgs 02-12 IT Infrastruktur in
MehrArchitektur paralleler Plattformen
Architektur paralleler Plattformen Freie Universität Berlin Fachbereich Informatik Wintersemester 2012/2013 Proseminar Parallele Programmierung Mirco Semper, Marco Gester Datum: 31.10.12 Inhalt I. Überblick
MehrOpenCL. Programmiersprachen im Multicore-Zeitalter. Tim Wiersdörfer
OpenCL Programmiersprachen im Multicore-Zeitalter Tim Wiersdörfer Inhaltsverzeichnis 1. Was ist OpenCL 2. Entwicklung von OpenCL 3. OpenCL Modelle 1. Plattform-Modell 2. Ausführungs-Modell 3. Speicher-Modell
MehrNext generation of Power
Next generation of Power 29. April Executive Briefing Center Böblingen Volker Haug Power Systems Architekt Mitglied des IBM Technical Expert Council (TEC) IBM Deutschland GmbH Systems & Technology Group
MehrUNIVERSITÄT LEIPZIG. Mainframe Internet Integration SS2013. Hybrid Computing Teil 3. zbx. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G.
UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013 Hybrid Computing Teil 3 zbx el0100 copyright W. G. Spruth, wgs 02-12 IT Infrastruktur
MehrHardware & Kernel-Module
Hardware & Kernel-Module Linux-Kurs der Unix-AG Zinching Dang 09. Juli 2013 Hardwarekomponenten Mainboard CPU RAM Grafikkarte Festplatte Optische und Wechsel-Datenträger Peripherie Zinching Dang Hardware
Mehrbluechip Modular Server Sven Müller
bluechip Modular Server Sven Müller Produktmanager Server & Storage bluechip Computer AG Geschwister-Scholl-Straße 11a 04610 Meuselwitz www.bluechip.de Tel. 03448-755-0 Übersicht Produktpositionierung
MehrTitelmasterformat durch Klicken bearbeiten
Titelmasterformat durch Klicken Titelmasterformat durch Klicken Huawei Enterprise Server Systeme Global Player auf dem Server- und Storagemarkt Scale up Übersicht Titelmasterformat durch Klicken Textmasterformat
MehrÜberlegungen zur Kapazitätsplanung bei Hardware Upgrades
Überlegungen zur Kapazitätsplanung bei Hardware Upgrades GSE z/vm und z/vse Frühjahrstagung 2005 Dagmar Kruse dkruse@de.ibm.com Inhalt der Präsentation z890: attraktiv für VM/VSE - Kunden Kriterien zur
MehrEnterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS20121/13
UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS20121/13 Verarbeitungsgrundlagen Teil 1 Multiprogrammierung el0100
MehrOracle 11g und Virtualisierung Johannes Ahrends Technical Director Quest Software GmbH
Oracle 11g und Virtualisierung Johannes Ahrends Technical Director Quest Software GmbH Copyright 2006 Quest Software Quest Software Wir helfen bei Bereitstellung, Verwaltung und Überwachung komplexer Anwendungsumgebungen.
MehrGliederung. Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik
Cloud Computing Gliederung Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik 2 Bisher Programme und Daten sind lokal beim Anwender
MehrPraktikum zur Vorlesung Client/Server Systeme
Praktikum zur Vorlesung Client/Server Systeme Praktikum Client/Server Systeme SS 2009 Die Übungen zur Vorlesung Client/Server Systeme bestehen aus 7 Aufgaben: 1. Corba und Corba Namensdienst 2. RMI und
Mehroptimales Sizing für Oracle Application
DOAG SIG Fusion Middleware optimales Sizing für Oracle Application Server Björn Bröhl Bereichsleiter Service Engineering OPITZ CONSULTING Gummersbach GmbH Seite 1 Inhalt Die Zielsetzung Vorgehensweise
MehrM5000 einfach ablösen durch T4/T5 LDoms und Solaris Zonen
M5000 einfach ablösen durch T4/T5 LDoms und Solaris Zonen Marcel Hofstetter JomaSoft GmbH St. Gallen / Schweiz Schlüsselworte M5000, T4, T5, LDoms, Oracle Solaris 11, Solaris Zonen, VDCF Einleitung Die
MehrKostenoptimierte Cloud-Administration mit Solaris Container Technologie
Kostenoptimierte Cloud-Administration mit Solaris Container Technologie Joachim M. Dietsch Principal Sales Consultant Global Elite Accounts Agenda Virtualisierungs-Technologien System
MehrEnterprise Computing
Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth WS 2011/12 Teil 3 Mainframe Hardware Mainframe Alternativen IBM System z, z/os Hersteller Name Microprocessor Betriebssystem Fujitsu / Sun Sunfire,
MehrTU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D.
TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D. Blatt Nr. 07 Übung zur Vorlesung Einsatz und Realisierung von Datenbanksystemen im SoSe16 Moritz Kaufmann
MehrODA Erfahrungen und Neuigkeiten
ODA Erfahrungen und Neuigkeiten Dierk Lenz 25. Oktober 2017 Köln Oracle Database Appliance (ODA) Mitglied der Familie der Oracle Engineered Systems, d.h.: Hardware und Software (Betriebssystem, Datenbank)
MehrInformationen zur Oracle DB SE2
Informationen zur Oracle DB SE2 Dipl.-Inf. Karin Patenge Leitende Systemberaterin Stand der Bearbeitung: 23. September 2015 Copyright 2014 Oracle and/or its affiliates. All rights reserved. Safe Harbor
MehrEine dynamische Infrastrukturkonsolidierung bei ÖBB
Christian Müksch, ÖBB Information Services Martin Balaz, IBM Österreich 8. Oktober 2009 Eine dynamische Infrastrukturkonsolidierung bei ÖBB Rechenzentrumskonsolidierung der UNIX Plattformen Drei Power
MehrHard- und Softwareanforderungen für WinSped
Hard- und Softwareanforderungen für WinSped Stand Februar 2017 Revision 1.35 Inhalt: 1. Betriebssysteme und Datenbanken... 3 2. Systemanforderungen... 4 2.1 Minimalanforderung (max. 3 Benutzer)... 4 2.2
MehrHugepages, NUMA or nothing on Linux?
Hugepages, NUMA or nothing on Linux? Daniel Hillinger Value Transformation Services S.r.l. Zweigniederlassung Deutschland München Schlüsselworte Memory; Arbeitsspeicher; NUMA; Hugepages Einleitung Speicherarchitekturen
MehrKapitel 5. Parallelverarbeitung. Formen der Parallelität
Kapitel 5 Parallelverarbeitung é Formen der Parallelität é Klassifikation von parallelen Rechnerarchitekturen é Exkurs über Verbindungsstrukturen Bernd Becker Technische Informatik I Formen der Parallelität
MehrSystemanforderungen für MuseumPlus und emuseumplus
Systemanforderungen für MuseumPlus und emuseumplus Systemanforderungen für MuseumPlus und emuseumplus Gültig ab: 01.04.2008 Neben den aufgeführten Systemvoraussetzungen gelten zusätzlich die Anforderungen,
MehrA501 Disk-Subsystem. IKT-Standard. Ausgabedatum: 2015-02-03. Version: 2.03. Ersetzt: 2.02
Eidgenössisches Finanzdepartement EFD Informatiksteuerungsorgan des Bundes ISB A501 Disk-Subsystem Klassifizierung: Typ: Nicht klassifiziert IKT-Standard Ausgabedatum: 2015-02-03 Version: 2.03 Status:
MehrSupercomputer Blue Gene/L
FH Giessen Friedberg Supercomputer Blue Gene/L Sven Wagner Übersicht Einführung Supercomputer Begriffe Geschichte TOP500 Anwendung 2 Übersicht Blue Gene/L Historie Architektur & Packaging ASIC Netzwerk
MehrGeorg Hager Regionales Rechenzentrum Erlangen (RRZE)
Erfahrungen und Benchmarks mit Dual- -Prozessoren Georg Hager Regionales Rechenzentrum Erlangen (RRZE) ZKI AK Supercomputing Karlsruhe, 22./23.09.2005 Dual : Anbieter heute IBM Power4/Power5 (Power5 mit
MehrCopyright 2014 Hewlett-Packard Development Company, L.P. The information contained herein is subject to change without notice.
Datacenter Architects Schritt für Schritt in das automatisierte Rechenzentrum mit HP Server Infrastruktur Stefan Weber Strategic Sales Consultant HP Enterprise Group Strategie Wachsende Rechenzentrumkonvergenz
MehrMaximalwerte für die Konfiguration VMware Infrastructure 3
Technischer Hinweis e für die Konfiguration VMware Infrastructure 3 Revisionsdatum: 20080725 Achten Sie bei Auswahl und Konfiguration Ihrer virtuellen und physischen Geräte darauf, dass Sie die von VMware
MehrProduktnummer Produktbeschreibung Listpreis HP 2-Wege 1 GHz PA-RISC 8900 Prozessor mit 1.5 MB L1 Cache und keinem L2
c8000 HP Workstation Informieren Sie sich bitte hier über die Konfigurationsmöglichkeiten. Haben Sie Fragen? Benötigen Sie ein aktuelles Angebot? Dann rufen Sie uns an, wir helfen Ihnen gerne: 06 14 6/82
MehrArchitektur von Parallelrechnern 50
Architektur von Parallelrechnern 50 Rechenintensive parallele Anwendungen können nicht sinnvoll ohne Kenntnis der zugrundeliegenden Architektur erstellt werden. Deswegen ist die Wahl einer geeigneten Architektur
MehrDie neuen 3PAR StoreServ Systeme
Die neuen 3PAR StoreServ Systeme Prof. Dr. Thomas Horn IBH IT-Service GmbH Gostritzer Str. 67a 01217 Dresden info@ibh.de www.ibh.de Die neuen HP 3PAR-Systeme Die HP 3PAR StoreServ 7000 Familie zwei Modelle
MehrDienstleistungen Abteilung Systemdienste
Dienstleistungen Abteilung Systemdienste Betrieb zentraler Rechenanlagen Speicherdienste Systembetreuung im Auftrag (SLA) 2 HP Superdome Systeme Shared Memory Itanium2 (1.5 GHz) - 64 CPUs, 128 GB RAM -
MehrSeminar Multicore-Programmierung
Multicore- und GPGPU-Architekturen Fakultät für Informatik und Mathematik Universität Passau 04. November 2010 APUs / 1 / 39 Inhaltsverzeichnis I APUs / APUs / 2 / 39 Inhaltsverzeichnis II APUs / 3 / 39
MehrHPE Top Angebote Einsatzbereit. Preisgünstig. Maßgeschneidert.
Juni 2018 HPE Top Angebote Einsatzbereit. Preisgünstig. Maßgeschneidert. Wegen der starken Nachfrage nach HPE ProLiant Servern bietet Hewlett Packard Enterprise diese nun auch für kleine und mittelständische
MehrDie Wartung und Betreuung folgender Software-Applikationen ist bei der Variante Managed inkludiert:
... 3... 3... 3... 3... 3... 3... 4... 4... 4... 4... 5... 5 Seite 2 von 5 Gegenstand dieser Leistungsbeschreibung sind die Dienstleistungen von Tele2 Telecommunication GmbH im Rahmen des Services Tele2
MehrEvil Tech presents: Windows Home Server
Evil Tech presents: Windows Home Server Eine Vorstellung der Technik eines interessanten Produktes. by rabbit@net Die zentrales Backup zentrale Datenablage Streaming von Medien weltweiter Zugriff einfache
MehrEnterprise Computing
Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth WS 2011/12 Teil 7 Virtualization copyright W. G. Spruth, wgs 09-2010 Eine interessante Vorführung: Wer eine neue z196 mal "auseinandernehmen" will:
MehrLDom Performance optimieren
LDom Performance optimieren Marcel Hofstetter JomaSoft GmbH St. Gallen / Schweiz Schlüsselworte Virtualisierung, SPARC, T4, T5, LDom, Oracle VM Server for SPARC, VDCF Einleitung Die aktuellen Oracle SPARC
MehrLeistungsbeschreibung vserver. Stand: 09/2018
Leistungsbeschreibung vserver. Stand: 09/2018 www.drei.at/business Inhaltsverzeichnis. 1. Anwendungsbereich.... 3 2. Leistungsumfang.... 3 2.1 Allgemein.... 3 2.2 Hardware und Netzwerkanbindung.... 3 2.3
MehrIBM eserver OpenPower Workshop 2005
IBM eserver OpenPower Workshop 2005 Agenda: 09.30 Get together; Kaffee 10.00 Positionierung eserver OpenPower mit Power5 Prozessoren 10.15 Aufbau einer Virtualisierungslösung auf IBM OpenPower 12.00 Mittagsbuffet
Mehr2. Beispiele aus der Praxis Unterschied Classic versus
von Edelgard Schittko und Maria-Katharina Esser Fortsetzung von Teil 1 IBM & Burgy Zapp Inhalt sind folgende fünf Rubriken (Teil 1 und Teil 2): 1. Überblick über die Neuerungen in 2017 im HMC-Umfeld 2.
Mehr